Arte generado por Inteligencia Artificial y su impacto en artistas

Harry Jiang
Independent Researcher
Canada
hhj@alumni.cmu.edu

Lauren Brown 
Artist 
USA
labillustration@gmail.com

Jessica Cheng
Artist
Canada
chengelingart@gmail.com

Anonymous Artist
Artist
USA

Mehtab Khan
Yale Law
USA
mehtab.khan@yale.edu

Abhishek Gupta
Montréal AI Ethics Institute
Canada
abhishek@montrealethics.ai

Deja Workman
Penn State University
USA
dqw5409@psu.edu

Alex Hanna
The Distributed AI Research Institute
USA
alex@dair-institute.org

Jonathan Flowers
California State University, Northridge
USA
johnathan.flowers@csun.edu

Timnit Gebru
The Distributed AI Research Institute
USA
timnit@dair-institute.org

Equipo de Arte es Ética | Traducción: Luz Castro. Revisión y corrección: Nia Soler, Oscar Araya. Edición y diseño: Naida Ochoa | Octubre 2023

Resumen:
En los últimos tres años han aparecido generadores de imágenes basados en el aprendizaje automático, capaces de producir imágenes de gran calidad a partir de instrucciones en lenguaje natural. Como resultado, se han introducido en el mercado numerosos productos comerciales de “arte generativo de IA”, lo que ha convertido a la IA generativa en una industria estimada en 48.000 millones de dólares [125]. Sin embargo, muchos artistas profesionales han denunciado los perjuicios que han sufrido debido a la proliferación a gran escala de estos generadores entrenados a partir de pares imagen/texto de Internet. En este artículo, repasamos algunos de estos perjuicios, entre los que se incluyen los daños a la reputación, las pérdidas económicas, el plagio y la infracción de los derechos de autor. Para evitar estos problemas y aprovechar al mismo tiempo los beneficios potenciales de los generadores de imágenes, ofrecemos recomendaciones tales como una normativa que obligue a las organizaciones a revelar los datos usados en el proceso de entrenamiento y brinde herramientas que ayuden a los artistas a evitar el uso de sus contenidos como dataset sin su consentimiento.

Formato de referencia ACM:
Harry Jiang, Lauren Brown, Jessica Cheng, Artista Anónimo, Mehtab Khan, Abhishek Gupta, Deja Workman, Alex Hanna, Jonathan Flowers y Timnit Gebru. 2023. AI Art and its Impact on Artists. En AAAI/ACM Conference on AI, Ethics, and Society (AIES ’23), August 08-10, 2023, Montréal, QC, Canada. ACM, Nueva York, NY, EE.UU., 12 páginas. https://doi.org/10.1145/3600211.3604681

1 INTRODUCCIÓN
En los dos años transcurridos desde la publicación de [18], en el que se describen los peligros de los grandes modelos lingüísticos (LLM), los sistemas de inteligencia artificial (IA) generativa multimodal con texto, imágenes, videos, voz y música como entradas y/o salidas han proliferado rápidamente en la corriente dominante, haciendo que la industria de la IA generativa esté valorada en unos 48.000 millones de dólares [125]. Aplicaciones como como Midjourney [78], Stable Diffusion [5] y DALL-E [91], que introducen texto y generan imágenes, así como otras basadas en imágenes, como Lensa [97], que genera versiones modificadas de las imágenes de entrada, cuentan con decenas de millones de usuarios diarios [47,127]. Sin embargo, aunque estos productos han cautivado la imaginación del público, posiblemente en mayor medida que cualquier otro sistema de IA anterior, también han provocado daños tangibles, que se agravarán si no se abordan ahora los problemas éticos que plantean. En este artículo, exponemos algunos de estos problemas, centrándonos en el impacto de los sistemas de IA generativa basados en imágenes, -los cuales toman como entrada texto, imágenes o una combinación de ambos, y producen imágenes-. Aunque otros trabajos han resumido algunos de los posibles perjuicios de los sistemas de IA generativa de forma más general [18,28,29], nosotros nos centraremos en el impacto que los mismos tienen en la comunidad artística, que podría decirse que ha sido una de las principales perjudicadas (Sección 4) [40,138].
Como argumentamos en la sección 3, los sistemas de IA generativa basados en imágenes, que llamamos generadores de imágenes a lo largo de este artículo, no son artistas.


Esta obra está bajo una Licencia Creative Commons Atribución Internacional 4.0.
AIES ’23, 08-10 de agosto de 2023, Montreal, QC, Canadá
© 2023 Los derechos de autor pertenecen a su(s) propietario(s)/autor(es).
ACM ISBN 979-8-4007-0231-0/23/08.
https://doi.org/10.1145/3600211.3604681


Para ello, en primer lugar establecemos que el arte es una tarea exclusivamente humana, utilizando perspectivas de la filosofía del arte y la estética. Además, explicamos que antropomorfizar a los generadores de imágenes y describirlos como siendo “inspirados” por sus datos de entrenamiento, de manera semejante a la forma en que los artistas se inspiran en otros artistas, no sólo es erróneo, sino también perjudicial. Atribuir agencia a estos sistemas artificiales disminuye la complejidad de la creatividad humana, priva a los artistas de crédito (y en muchos casos de compensación) y transfiere la responsabilidad desde las organizaciones que los crean, -así como desde las prácticas de estas organizaciones, las cuales deberían ser examinadas-, hacia los propios generadores de imágenes.

Mientras empresas como Midjourney, Stability AI y Open AI, que producen dichos generadores, están valoradas en miles de millones de dólares y recaudan cientos de millones1, sus productos inundan el mercado de contenidos que se utilizan para competir con los artistas y desplazarlos. En la sección 4, analizamos el impacto de estos productos sobre los artistas en activo, incluido el efecto desalentador sobre la producción y el consumo culturales en su conjunto. Los generadores de imágenes de código abierto no resuelven estos problemas, ya que seguirían permitiendo el plagio de obras de artistas y la suplantación de su estilo para usos que los artistas no han consentido.
En la Sección 5, presentamos un resumen de las cuestiones jurídicas relevantes relacionadas con los generadores de imágenes. Aunque se han producido avances jurídicos en todo el mundo, centramos nuestro análisis en EE.UU., donde se han presentado varias demandas por parte de artistas que cuestionan su uso [129]. Dado que los derechos de autor han sido la ley más frecuentemente invocada en estos casos [28], ofrecemos una visión general de la relevancia de la ley de derechos de autor estadounidense para proteger a los artistas, y concluimos que no está en absoluto preparada para abordar muchos de los tipos de daños que estos sistemas plantean a los creadores de contenidos. Como analizamos en la Sección 6, la comunidad de investigación en IA ha permitido los daños mencionados a través del blanqueo de datos, con empresas con ánimo de lucro asociándose con instituciones académicas que les ayudan a recopilar datos de entrenamiento con fines comerciales, al tiempo que aumentan sus posibilidades de que los tribunales consideren estos usos como “uso justo”.
Concluimos nuestro debate con propuestas de nuevas herramientas y normativas que aborden algunos de los perjuicios analizados en este documento, así como animando a la comunidad de la IA a alinearse con los perjudicados por estos sistemas en lugar de con las poderosas entidades que impulsan la proliferación de modelos generativos de IA entrenados con el trabajo gratuito de los creadores de contenidos.

2 REVISIÓN BIBLIOGRÁFICA
2.1 Antecedentes en generación de imágenes
Usamos “inteligencia artificial (IA) generativa” para englobar los productos de aprendizaje automático que presentan modelos cuyos espacios de salida se solapan total o parcialmente con sus espacios de entrada durante el entrenamiento, aunque no necesariamente durante la inferencia. Aunque los sistemas de IA generativa se basan en modelos generativos que estadísticamente pretenden modelar la distribución conjunta entre un espacio de características y un espacio de salida 𝑝 (𝑥,𝑦) [85], distinguimos entre sistemas de “IA generativa” y modelos generativos, ya que estos últimos pueden utilizarse en sistemas de clasificación. Este artículo se centra en productos cuyo espacio de salida declarado se compone, en parte o en su totalidad, de datos visuales (es decir, imágenes), a los que nos referiremos como generadores de imágenes; del mismo modo, el ámbito del arte tratado en este trabajo se limita en gran medida a los campos del arte visual. Consideramos dos aplicaciones diferentes en el contexto de la inferencia, texto-a-imagen e imagen-a-imagen, aunque las arquitecturas de modelos multimodales más recientes suelen ser capaces de ambas (y a menudo necesitan ambas).
Las primeras aproximaciones a la síntesis de imágenes, como [38,95,120], pretendían lograr la síntesis de texturas, es decir, modificar una imagen existente para copiar la textura de otra imagen [38,95,120]. En la era del aprendizaje profundo de la visión por ordenador (2012 hasta ahora), las redes neuronales convolucionales (CNN) permitieron reconocer una gran cantidad de atributos latentes que no se ajustan a formas estadísticas arbitrarias, a diferencia de los primeros trabajos sobre síntesis de texturas [69].
Además de las CNN, otro elemento arquitectónico digno de mención es el autoencoder variacional (VAE), como el utilizado en Yan et al. [135] Los VAE, que utilizan dos componentes de red neuronal en espejo para asignar el espacio de entrada a un espacio latente (codificador) y viceversa (decodificador) [68], sentaron las bases para el desarrollo de modelos generativos, que ampliaron significativamente la capacidad de la síntesis de imágenes. Un elemento clave de los VAE es la función de pérdida reconstructiva, que permite a un sistema de ML definir explícitamente su objetivo de entrenamiento como la recreación de las características de entrada, con la expectativa de que el modelo pueda generalizar más allá del conjunto de entrenamiento durante la inferencia. Los VAE permitieron la creación de modelos de generación de imágenes como elVQ-VAE-2 [104] y son componentes de muchos modelos posteriores.
El siguiente gran avance es la red generativa adversarial (GAN), que emplea el uso de dos modelos entrenados simultáneamente [58]. A diferencia de las redes neuronales convencionales, como las VAE, que miden directa y asimétricamente la divergencia entre una distribución conocida como referencia y otra conocida como hipótesis, las GAN miden indirectamente la divergencia entre dos distribuciones de origen encubierto a través del discriminador. La introducción de las pérdidas condicionales en [82] convirtió a los GAN en la arquitectura dominante en la generación de imágenes debido a la capacidad actual de informar  las salidas con etiquetas de texto como información auxiliar; el propio artículo utilizaba un generador de escritura a mano entrenado en el conjunto de datos del MNIST [35] como demostración. Con los GAN aparecieron los primeros modelos de generación de imágenes a gran escala, que permitían tamaños de salida de hasta 512 × 512 [24, 61, 65].
La adaptación de enfoques del procesamiento del lenguaje natural (PLN), como los transformadores, permitió disponer de texto complejo como entrada para los modelos texto-imagen [42]. En [30], OpenAI adaptó la arquitectura de GPT-2, un gran modelo de lenguaje (LLM), para generar series de valores de píxeles que pudieran reorganizarse en una imagen reconocible. Esta investigación dio lugar al original DALL-E [103], una herramienta que genera una imagen RGB de 256 × 256 basada en instrucciones de lenguaje natural, esta vez utilizando la arquitectura GPT-3 [25].
En los últimos tres años, el uso de GAN para la generación de imágenes se ha visto superado por los modelos de difusión que se inspiran en la dinámica de fluidos [37, 86, 116, 118]. Estos modelos funcionan aplicando repetidamente ruido gaussiano a una imagen (imitando el proceso de difusión de fluidos o calor) y, a continuación, eliminando el ruido del resultado en el mismo número de pasos [118]. A diferencia del modelado implícito de los GAN, los modelos de difusión vuelven a utilizar una pérdida de reconstrucción.
En 2022, Rombach et al. lanzaron el modelo Stable Diffusion [4,106], que utiliza un espacio latente condicional basado en texto e imágenes: en este caso, un modelo preentrenado de OpenAI llamado CLIP [99], lo que permite que los modelos no se limiten a arquitecturas basadas en la comprensión del lenguaje natural (NLU) y puedan generar imágenes de alta calidad a partir de instrucciones en lenguaje natural. Ese mismo año, OpenAI lanzó DALL-E 2 [91], con una arquitectura de modelo similar [102], pero con un conjunto de datos de entrenamiento opaco al público.
Además de las diferentes arquitecturas de modelos, los conjuntos de datos de imágenes masivas como JFT-300M (300 millones de imágenes) [124] han ayudado a mejorar el rendimiento de la generación de imágenes. Los actuales generadores de imágenes, principalmente los basados en difusión estable, están preentrenados en LAION [109], o sus variantes, que son subconjuntos del conjunto de datos original 5B. Este conjunto de datos consta de 5.850 millones de pares imagen-texto filtrados por CLIP, de los cuales 2.320 millones contienen texto en inglés. Se puede consultar una exploración de un subconjunto de LAION en [11].

2.2 Productos para la generación de imágenes
La aparición de Stable Diffusion y otros modelos relacionados ha dado lugar a una proliferación de tecnologías comerciales y no comerciales de generación de imágenes que los utilizan. Stable Diffusion, de Stability AI [5] y su producto comercial Dream Studio2, DALL-E 2, de OpenAI [91], y Midjourney [78] son los sistemas más populares basados en modelos de difusión, siendo otros desarrollos de este tipo StarryAI [122], Hotpot.ai [94], NightCafe [123], e Imagen [108]. Adobe, una  reconocida empresa de software artístico, también ha lanzado su producto generador de imágenes, Adobe Firefly [3], el cual, según la empresa, está capacitado para trabajar con imágenes de Adobe Stock, de dominio público y de licencia abierta. El ecosistema es amplio y está en expansión, con organizaciones como Fotor [45], Dream de WOMBO [133], Images.AI [128], Craiyon [71], ArtBreeder [9], Photosonic [134], Deep Dream Generator [55], Runway ML [107], CFSpark [46], MyHeritage Time Machine [73] y Lensa [97]. Mientras que algunos anuncian las arquitecturas de modelos que utilizan, como StableCog [121] que utiliza técnicas basadas en la difusión, otros proporcionan pocos o ningún detalle. Por ejemplo, mientras que el director general de Stability AI ha escrito que Midjourney utilizó Stable Diffusion en anteriores versiones3, Midjourney no revela información sobre el modelo subyacente para sus versiones actuales, y sólo menciona “una arquitectura de IA completamente nueva diseñada por Midjourney” al describir sus versiones desde noviembre de 2022 [79].
La mayoría de los productos identificados anteriormente surgieron como ofertas comerciales específicas para que los usuarios generaran imágenes proporcionando fragmentos de texto. Hay otros servicios que se han introducido como funciones de productos ya existentes, tales como las imágenes sintéticas de Canva [26], Shutterstock [113] y Adobe Stock Images [2], que pretenden ampliar su oferta de imágenes de archivo con imágenes de ese tipo. Por otro lado, empresas como Getty Images se opusieron a incluir imágenes generadas por IA en su oferta en 2022 [130], aunque NVIDIA anunció una colaboración con ellos en 2023 para desarrollar generadores de imágenes [76]. Las iniciativas de código abierto en este campo se han centrado en el uso de Stable Diffusion y otras variantes de código abierto para crear plugins para Photoshop [7], Unreal Engine [43] y GIMP [20]. Algunos grupos, como Unstable Diffusion, se dedican explícitamente a generar contenidos “no seguros para el trabajo” (NSFW) [59].

3 LOS GENERADORES DE IMÁGENES NO SON ARTISTAS
Muchos investigadores han señalado los problemas que surgen de la antropomorfización de los sistemas de IA, como el desplazamiento de la responsabilidad de las personas y organizaciones que construyen estos sistemas hacia los artefactos construidos, como si estos artefactos tuvieran agencia propia [13, 16, 39]. Esta antropomorfización se aprecia fácilmente en las descripciones de los generadores de imágenes como si fueran artistas [39], llegando incluso a afirmar que los generadores de imágenes están “inspirados” por los datos con los que se entrenan, de forma similar a como los artistas se inspiran en las obras de otros artistas [66]. En esta sección explicamos por qué estos argumentos son erróneos y perjudiciales.
Siguiendo a los filósofos del arte y la estética de diversas disciplinas (por ejemplo, la filosofía china y japonesa, el pragmatismo americano y la filosofía africana), definimos el arte como un esfuerzo exclusivamente humano relacionado específicamente con la cultura y la experiencia humanas [6, 36, 62, 74, 75, 88, 93]. La mayoría de los filósofos del arte y la estética sostienen que, si bien las entidades no humanas pueden tener experiencias estéticas y expresar afecto, una obra de arte es un producto cultural que utiliza los recursos de una cultura para plasmar esa experiencia en una forma que todos los que se encuentren ante ella puedan contemplar. Desde este punto de vista, el arte se refiere a un proceso que hace uso de materiales externos o del cuerpo para hacer presente la experiencia de una forma intensificada. Además, este proceso debe estar controlado por una sensibilidad hacia la actitud del perceptor, en la medida en que el producto está destinado a ser disfrutado por un público. La obra de arte, por tanto, es el resultado de un proceso que se controla con algún fin y no es simplemente el resultado de una actividad espontánea ([36] pp. 54, 55). Este control sobre el proceso de producción es lo que marca la contribución única de la humanidad: aún cuando el arte se basa en las propias actividades de la vida, es el reconocimiento humano de la causa y el efecto lo que transforma las actividades que antes se realizaban bajo presiones orgánicas, en actividades realizadas con el fin de obtener alguna respuesta de un espectador. Por ejemplo, un petirrojo puede cantar o un pavo real bailar, pero todo ello bajo la urgencia biológica de buscar pareja. En los humanos, el canto y la danza están desconectados de estas urgencias de la vida y sirven a propósitos que van más allá de la mera satisfacción y expresión de las mismas, y sirven a propósitos culturales. En resumen, el arte es una forma de comunicación: comunica.
Por el contrario, los resultados de artefactos como los generadores de imágenes no están concebidos para el disfrute, ya que se limitan a imitar únicamente el proceso técnico encarnado en las obras que componen el conjunto de datos de formación. El generador de imágenes no comprende la perspectiva del público ni la experiencia que el resultado pretende transmitirle. En el mejor de los casos, el resultado de los generadores de imágenes es estético, en el sentido de que puede apreciarse o disfrutarse, pero no es artístico ni arte en sí mismo. Así, “la mera perfección en la ejecución, juzgada en sus propios términos y de forma aislada, puede probablemente ser mejor lograda por una máquina que por el arte humano. Por sí misma, es a lo sumo técnica. . . Para ser verdaderamente artística, una obra debe ser también estética, es decir, estar concebida para el disfrute de la percepción receptiva”. ([36] pág. 54).
Así pues, el arte es una actividad exclusivamente humana, y aparece como opuesta a algo que pueda hacer un artefacto. Mientras que a los generadores de imágenes hay que entrenarlos mostrándoles repetidamente el resultado “correcto”, utilizando muchos ejemplos del objetivo deseado y definiendo explícitamente una función objetivo sobre la que optimizar, los humanos no tienen instrucciones tan rígidas. De hecho, aunque se ha demostrado que los generadores de imágenes incluso memorizan sus datos y pueden producir réplicas casi exactas de imágenes de su conjunto de entrenamiento bajo ciertas condiciones [27, 117], tal como escribe la artista Karla Ortiz, los estilos de los artistas son tan únicos que es muy difícil que un artista copie el trabajo de otro [92]. Los pocos artistas capaces de hacer esta copia son conocidos por su habilidad [92]. El “estilo personal” de un artista es como su letra, auténtica para él, y lo desarrolla (su voz personal y su lenguaje visual único) a lo largo de los años y de las experiencias vividas [92].
La adopción de un estilo artístico concreto, personal o de otro tipo, es el resultado de la interacción del individuo con su entorno cultural, de modo que adopta las costumbres, creencias, significados y hábitos, incluidos los hábitos de producción estética, que le proporciona la cultura en general. Tal como sostiene el filósofo John Dewey, un estilo artístico se desarrolla a través de la interacción con un entorno cultural más que por mera imitación o extrapolación de ejemplos directos suministrados por un conjunto de datos [23]. Steven Zapata afirma que “nuestro arte nos “crea” como artistas tanto como nosotros lo creamos” [138]. Esta experiencia es única para cada ser humano en virtud de los diferentes entornos culturales que proporcionan el conjunto más amplio de hábitos, disposiciones hacia la acción, que permiten el desarrollo de lo que se denomina un estilo personal a través de cómo un individuo adopta esos hábitos y los despliega de forma inteligente.
Por último, se entrena a un generador de imágenes para que genere imágenes a partir de textos mediante el mapeo de imágenes y textos en una representación de menor dimensión en un espacio latente [58, 68, 106]. Este espacio latente se aprende durante el proceso de entrenamiento del modelo. Una vez que el modelo está entrenado, este espacio latente es fijo y sólo puede cambiar mediante un entrenamiento desde cero o un ajuste fino con ejemplos adicionales de pares imagen-texto [57]. En cambio, la inspiración humana cambia continuamente con nuevas experiencias, y la relación de un ser humano con sus experiencias vividas evoluciona con el tiempo. Y lo que es más importante, estas experiencias no se limitan a una formación artística adicional o al visionado de imágenes, sino que los humanos realizan interpretaciones abstractas de temas representacionales e imaginarios y, por supuesto, sentimientos y experiencias personales que un artefacto no puede tener.
Veamos el ejemplo de Akira, la obra seminal de Katsuhiro Otomo, quien señala que creó estas imágenes inspirándose en su propia adolescencia, pensando en un mundo en reconstrucción, en la influencia política extranjera y en un futuro incierto tras la Segunda Guerra Mundial [12]. Del mismo modo, Claude Monet creó su serie definitoria Nymphéas [Nenúfares] durante los últimos 30 años de su vida, tras la pérdida de su hijo en 1914 [63]. Como demuestran estos dos casos, y muchos otros, la experiencia humana define e inspira la creación a lo largo de la vida personal de un artista. El arte de cada individuo es único en función de sus experiencias vitales. Akira de Otomo es una obra de arte fundamentalmente diferente de la serie Nymphéas [Nenúfares] de Monet, no sólo por sus diferentes medios estilísticos y pictóricos, sino por el modo en que la obra de cada uno era expresión de una herencia cultural que moldeó las experiencias únicas que dieron lugar a sus formas artísticas particulares. Aunque los generadores de imágenes pueden imitar los hábitos estilísticos, las “voces únicas” de un artista determinado, no pueden desarrollar sus propios estilos particulares porque carecen de los tipos de experiencias y herencias culturales que estructuran todo acto creativo. Incluso cuando se les proporciona una instrucción escrita por un ser humano, el muestreo de una distribución de probabilidad condicionada a una cadena de texto no presenta una síntesis de conceptos, emoción y experiencia.
En conclusión, los generadores de imágenes no son artistas: requieren objetivos y propósitos humanos para dirigir su “producción” o “reproducción”, y son estos objetivos y propósitos humanos los que dan forma a las direcciones en las que se producen sus resultados. Sin embargo, muchas personas los describen como si estos artefactos lo fueran, lo cual devalúa las obras de los artistas, les priva de crédito y compensación, y atribuye la responsabilidad a dichos generadores en lugar de responsabilizar a las entidades que los crean. En [39], Epstein et al. realizaron un estudio con participantes en Amazon Mechanical Turk para evaluar el impacto de la antropomorfización de estos sistemas, encontrando una relación entre la forma en que los participantes asignan crédito y responsabilidad a las partes interesadas en la formación y producción de generadores de imágenes, y el nivel de antropomorfización. Aconsejan a “artistas, informáticos y medios de comunicación en general que sean conscientes del poder de sus palabras y que el público sea exigente con los relatos que consume”.

4 IMPACTO EN LOS ARTISTAS
La proliferación de generadores de imágenes plantea una serie de perjuicios para los artistas, entre los que destaca la pérdida económica debida a las empresas que pretenden reemplazar su trabajo por procesos automáticos. En esta sección, resumimos algunos de estos perjuicios, incluido el impacto que suscita la imitación no consentida de estilo y, en algunos casos, su utilización con fines nefastos. Concluimos con un análisis de cómo los generadores de imágenes perpetúan las opiniones hegemónicas y los estereotipos en el mundo de la creación, y de los alarmantes efectos de estas tecnologías sobre los artistas, así como sobre la producción y el consumo cultural en general.

4.1 Pérdidas económicas
Mientras que los artistas perfeccionan su oficio durante años de práctica, observación y formación, y tienen que dedicar tiempo y recursos a pagar suministros, libros y tutoriales, empresas como Stability AI utilizan sus obras sin compensación, al tiempo que recaudan miles de millones de capitalistas de riesgo para competir con ellos en el mismo mercado4 . Líderes de empresas como Open AI y Stability AI han declarado que tienen expectativas acerca de que la sustitución de artistas por  modelos como los suyos sea inminente5 6 [7]. Emad Mostaque, CEO de Stability AI, ha llegado a acusar a los artistas de querer tener el “monopolio de la comunicación visual” y de “segregación de capacidades”7. Por el contrario, los actuales modelos de negocio de generación de imágenes, como los de Midjourney, Open AI y Stability AI, centralizan el poder en manos de unas pocas empresas situadas en países occidentales, al tiempo que privan de sus derechos a los artistas de todo el mundo.
Ahora cualquiera puede producir cientos de imágenes en cuestión de minutos, compilar un libro infantil en una hora8 y un proyecto para una exitosa campaña de Kickstarter en una fracción del tiempo que tarda un artista real9. Aunque muchas de estas imágenes no tienen toda la profundidad de expresión de un ser humano, los generadores de imágenes comerciales inundan el mercado con imágenes aceptables que pueden suplir la demanda de artistas en la práctica. Esto ya ha provocado la pérdida de puestos de trabajo para los artistas, con empresas como Netflix Japón utilizando estos productos para la animación, culpando a la “escasez de mano de obra” en la industria del animé por el hecho de no contratar artistas [32].
Uno de los casos más destacados del impacto laboral puede verse en la secuencia de títulos de la serie de televisión de 2023 Secret Invasion de Marvel Studio, que utiliza un montaje de imágenes generadas [81]. Mientras que las películas anteriores del estudio presentaban entre cinco (She-Hulk Attorney at Law10) y nueve (Hawkeye11) artistas e ilustradores para sus secuencias de títulos, Secret Invasion sólo tiene uno:  “Sagans Carle” acreditado como “AI Technical Director”12. Este desplazamiento laboral es evidente en todas las industrias creativas. Por ejemplo, según un artículo de Rest of World, un reclutador de la industria china del videojuego ha observado un descenso del 70% en los puestos de ilustrador, en parte debido al uso generalizado de generadores de imágenes [139]; se dice que otro estudio chino ha despedido a un tercio de sus ilustradores de diseño de personajes [139].
Además de desplazar los puestos de trabajo de los artistas de estudio, el ruido provocado por la cantidad de contenidos generados por IA será probablemente devastador para los artistas autónomos en particular. Esto se ha hecho evidente en el mundo literario con la llegada de sistemas basados en LLM como ChatGPT13. Recientemente, Clarkesworld, una popular revista de ciencia ficción, cerró temporalmente el plazo de presentación de trabajos tras verse desbordada por el número de envíos generados por Chat GPT que recibía [31]. El editor, Neil Clarke, escribe que otras organizaciones podrían recurrir a solicitar sólo obras de autores conocidos para evitar esta situación, que perjudicaría a los escritores que aún no son muy conocidos. No es difícil extrapolar este resultado a las salas de artes visuales que reciben demasiadas imágenes generadas por IA. Contrariamente a la “democratización del arte”, esto reduce el número de artistas que pueden compartir sus obras y recibir reconocimiento.
Independientemente de sus objeciones, algunos artistas en activo han empezado a informar que tienen que utilizar generadores de imágenes para no perder su trabajo, lo que normaliza aún más su uso comercial [139]. Los artistas asimismo han informado de que las empresas productoras de dichos generadores se han puesto en contacto con ellos para trabajar en la modificación de los resultados de sus sistemas14. Este tipo de trabajo reduce la destreza y la visión artística arduamente conquistadas a través de los años a una simple tarea de limpieza, sin agencia para las decisiones creativas. A pesar de estos problemas, los creativos en puestos ejecutivos, que pueden estar aislados de la realidad de la mayoría de los artistas en activo, pueden inclinarse por el uso de estas herramientas sin tener en cuenta los efectos sobre la industria en general, como la reducción del poder económico de muchos trabajadores del rubro. Por ejemplo, el director de Secret Invasion tenía el control editorial a la hora de decidir si utilizaba generadores de imágenes15, y optó por sustituir las obras de los ilustradores por contenidos generados mediante tecnología generativa.
Con el aumento de las barreras y la pérdida de puestos de trabajo para los creativos a causa de los generadores de imágenes, el arte podría quedar relegado a los ricos independientes y a quienes pueden permitirse desarrollar sus habilidades artísticas mientras trabajan a jornada completa. Esto perjudicará de forma desproporcionada el desarrollo de los artistas de comunidades marginadas, como los artistas discapacitados y los artistas con personas a cargo.

4.2 Falsificación de obras de arte digitales
Como se ha comentado en la Sección 2, los generadores de imágenes se entrenan utilizando miles de millones de pares imagen-texto obtenidos de Internet. Stable DiffusionV2, por ejemplo, se entrena utilizando el conjunto de datos LAION-5B, de acceso público [106,109]. Aunque los creadores de LAION-5B no han facilitado el acceso al conjunto de datos, varios artistas han declarado haber encontrado sus obras en los datos de entrenamiento sin su consentimiento ni atribución [11]. Open AI no ha compartido el conjunto de datos de su producto DALL-E, por lo que es imposible saber hasta qué punto sus datos de entrenamiento contienen imágenes protegidas por derechos de autor. Utilizando una herramienta16 creada por Simon Willison que permitía buscar en el 0,5% de los datos de entrenamiento de Stable Diffusion V1.1, es decir, 12 millones de 2.300 millones de instancias de LAION 2B [109], artistas como Karen Hallion17 18 descubrieron que sus imágenes protegidas por derechos de autor se habían utilizado como datos de entrenamiento sin su consentimiento [11]. Y, como se señala en la Sección 3, se ha demostrado que generadores de imágenes como Stable Diffusion memorizan imágenes, produciendo réplicas de fotografías y pinturas icónicas de artistas [27, 92].
Este tipo de falsificación digital causa una serie de perjuicios a los artistas, muchos de los cuales ya luchan por mantenerse y realizar su trabajo artístico de forma gratuita a la vez que tienen otros trabajos cotidianos [70]. En primer lugar, como ya se ha comentado en el apartado 4.1, la utilización de obras de artistas sin remunerarles se suma a la ya precaria situación en la que se encuentran la mayoría de quienes trabajan en la profesión [70,92,138]. Además de la falta de compensación, utilizar las obras de los artistas sin su consentimiento puede causarles daños a su reputación y traumas. Los usuarios de arte generado por imágenes pueden imitar el estilo de un artista afinando modelos como Stable Diffusion en imágenes de artistas concretos, y empresas como Womboeven ofrecen servicios para generar arte en el estilo vinculado a grupos específicos de artistas como Studio Ghibli [133]. Varios artistas han calificado esta práctica de “invasiva” y han señalado el daño que le causa a su reputación. Después de que un usuario de Reddit publicara imágenes generadas con el nombre de la artista Hollie Mengert como instrucción, Mengert afirmó que “me parecía invasivo que mi nombre apareciera en este generador, no sabía nada de él y no me habían preguntado al respecto”19. Mengert señaló además su frustración por el hecho de que su nombre se asociara a imágenes que no representan su estilo, salvo en “el nivel más superficial”.
Este tipo de imitación invasiva del estilo puede tener consecuencias más graves si el estilo de un artista se imita con fines nefastos como el acoso, la incitación al odio y la negación del genocidio. En su artículo de opinión en el NewYork Times [8], la artista Sarah Andersen cuenta cómo, incluso antes de la llegada de los generadores de imágenes, la gente editaba sus obras “para reflejar mensajes violentamente racistas que defendían el genocidio y la negación del Holocausto, con cruces gamadas y la introducción de personas en hornos”. Las imágenes proliferaron en Internet, y sitios como Twitter y Reddit rara vez las retiraban”. Agrega: “A través del bombardeo de mis redes sociales con estas imágenes, la derecha creó una versión de mí en las sombras, una versión que defendía la ideología neonazi. Recibí mensajes indignados y tuve que ponerme en contacto con mi editor para dejar clara mi postura contra este ultraje”. La idea de que alguien pudiera teclear mi nombre en un generador y producir una imagen con mi estilo me perturbó de inmediato. Me sentí violada” [8]. Como hemos visto en el apartado 3, el estilo de un artista es su voz única, formada a través de sus experiencias vitales. Haciéndose eco de la opinión de Hollie Mengert sobre la naturaleza invasiva del mimetismo estilístico, Andersen añade: “Mi forma de dibujar es la culminación de mi educación, de los cómics que devoraba de niña y de las muchas pequeñas decisiones que conforman la suma de mi vida. Los detalles son a menudo más personales de lo que la gente cree”. Así, los sistemas  desarrollados a partir de obras de artistas y que permiten a los usuarios imitar su estilo sin su consentimiento ni compensación, pueden causar un daño reputacional importante al suplantar la identidad de los artistas y difundir mensajes que éstos no respaldan.

4.3 Opiniones hegemónicas y estereotipos
Más allá de la apropiación de identidades individuales, se ha demostrado que los generadores de imágenes se apropian de identidades de grupos y las distorsionan, codifican prejuicios y refuerzan estereotipos [87, 98, 119]. En la presentación de In/Visible, una exposición que explora la intersección entre la IA y el arte, la artista senegalesa Linda Dounia Rebeiz escribe: “Cualquier persona negra que utilice IA hoy en día puede atestiguar con seguridad que en realidad la IA no les conoce, que su conceptualización de su realidad es una imagen fragmentaria, quizá incluso violenta. Los negros estamos acostumbrados a no ser vistos. Cuando se nos ve, estamos acostumbrados a que se nos tergiverse. Con demasiada frecuencia, hemos visto nuestras realidades ignoradas, distorsionadas o manipuladas. Estas realidades deformadas, a menudo instrumentos políticos de exclusión, nos persiguen como sombras de las que nunca podemos librarnos” [64]. En una entrevista, la artista da ejemplos de estereotipos perpetuados a través de generadores de imágenes. Por ejemplo, señala que las imágenes generadas por Dall-E 2 sobre su ciudad natal, Dakar, eran totalmente inexactas, ya que mostraban ruinas y desierto en lugar de una ciudad costera en crecimiento [114]. Del mismo modo, la artista estadounidense Stephanie Dinkins comenta que se encontró con importantes distorsiones al instruir a los generadores de imágenes para que produjeran imágenes de mujeres negras [114].
Ya hay casos de personas que producen imágenes que encarnan su visión de otras poblaciones. En un artículo del New Yorker de 2018, Lauren Michelle Jackson escribe sobre un fotógrafo británico blanco, Cameron-James Wilson, que creó un modelo sintético de piel oscura al que llamó “Shudu Gram” y el “primer supermodelo digital del mundo” [77]. El modelo sintético, que creó utilizando un programa gratuito de modelado en 3D llamado DAZ3D20, apareció por primera vez en Instagram con “iindzila, los anillos para el cuello asociados al pueblo ndebele de Sudáfrica” [77]. Jackson concedió la licencia de la imagen a varias entidades, como Balmain21 y Ellesse22, muchas de las cuales fueron criticadas por su falta de diversidad en la contratación [96]. Ahora, sin remunerar a ningún ndebele, revistas como Vogue23 se benefician de una concepción idealizada de alguien de esa comunidad, imaginada en la mente de un hombre blanco que recibe una compensación económica por crear esa imagen. La escritora Francesca Sobande escribe que se trata de otra iteración de “la cosificación de los negros y la mercantilización de la negritud” [115]. Cinco años después, el 6 de marzo de 2023, el empresario Danny Postma anunció el lanzamiento de una empresa, Deep Agency, que alquila modelos sintéticos generados por imágenes como un servicio24, lo que hace más probable que el tipo de práctica descrita por Jackson se produzca a escala.
Debido a estas cuestiones sobre quién puede usar (y beneficiarse de) estos sistemas representando qué culturas y de qué manera, participantes de un estudio llevado a cabo en  Pakistán, India y Bangladesh, [98] expresaron su “preocupación por la atribución de los artistas, la mercantilización y las consecuencias de separar ciertas formas de arte de sus raíces tradicionales”, y algunos cuestionaron qué productos culturales deberían incluirse en el conjunto de generadores de imágenes. Para sacar a la luz estos problemas, Quadri et al. recomiendan seguir examinando los perjuicios culturales que plantean los mismos plantean, como la perpetuación de la hegemonía cultural, la invisibilización o la creación de estereotipos [98].

4.4 Efectos paralizantes en la producción y el consumo culturales
Los perjuicios comentados en las secciones anteriores han creado un efecto paralizador entre los artistas, que, como señala el artista Steven Zapata, son ya una comunidad traumatizada, muchos de cuyos miembros luchan por llegar a fin de mes [137]. En primer lugar, los estudiantes que prevén que los generadores de imágenes sustituirán a los artistas se sienten desmoralizados y disuadidos de perfeccionar su oficio y desarrollar su estilo [138]. En segundo lugar, tanto los artistas noveles como los actuales son cada vez más reacios a compartir sus obras y perspectivas, en un intento de protegerse del raspaje masivo de datos y el entrenamiento de IA con las obras de toda una vida [92, 138]. Hoy en día, los artistas independientes comparten su trabajo en plataformas de redes sociales y campañas de crowdfunding, y venden tutoriales, herramientas y recursos a otros artistas en varios sitios o en ferias centradas en el arte25. Para la mayoría de quienes trabajan en el sector, ganar suficiente visibilidad en cualquiera de estos sitios (en línea o en persona) es extremadamente competitivo, y les lleva años construir una audiencia y una base de fans para vender su trabajo y, finalmente, tener la capacidad de mantenerse a sí mismos26. De este modo, el hecho de no tener visibilidad, en un intento de protegerse de las prácticas poco éticas de las empresas que se benefician de su trabajo, reduce aún más su posibilidad de recibir una compensación por el mismo.
La reticencia de los artistas a compartir su trabajo y enseñar a otros también reduce la posibilidad de los futuros artistas para aprender de los experimentados, lo que limita la creatividad de los seres humanos en su conjunto. Al igual que ocurre con el bucle de retroalimentación creado por las próximas generaciones de grandes modelos lingüísticos que se basan en los resultados de las anteriores [18], si nosotros, como humanidad, dependemos únicamente de las obras generadas por la IA para obtener los medios que consumimos, las palabras que leemos y el arte que vemos, nos dirigiremos hacia un ouroboros (en el sentido de círculo vicioso) en el que no se creará nada nuevo, sino que se perpetuará el pasado. En [18], los autores advierten de un problema similar con las futuras generaciones de grandes modelos lingüísticos formados a partir de los resultados de otros anteriores y de datos estáticos que no reflejan el cambio social.
En su libro de 1916 titulado Art, Clive Bell escribe: “El punto de partida de todos los sistemas estéticos debe ser la experiencia personal de una emoción particular. A los objetos que provocan esta emoción los llamamos obras de arte” [15].Tal como señala Steven Zapata, debemos “proteger el espíritu creativo humano. Hacer arte es una de las mejores maneras de investigar una de las formas en que uno se ve influenciado y la forma de transmitir esa influencia a otras personas. Si no frenamos esto, esta influencia puede venir de la IA, IA que no puede discernir los límites, e influir en los sentimientos. No dejemos que ocurra” [137].

5 ARTE GENERADO POR IA Y LEGISLACIÓN ESTADOUNIDENSE SOBRE DERECHOS DE AUTOR
Dada la velocidad a la que se han adoptado los generadores de imágenes y su impacto, los países de todo el mundo están lidiando con el problema de qué normas promulgar en respuesta. En particular, hay mucha incertidumbre sobre si el uso de materiales protegidos para entrenarlos constituye una infracción de los derechos de autor. Algunos organismos gubernamentales, como la UE, exigirán a las empresas que “documenten y pongan a disposición del público un resumen del uso de datos de formación protegidos por derechos de autor”27 [44], lo que podría desencadenar demandas si es posible identificar casos concretos de infracción de dichos derechos [72]. No obstante, no está claro cuál es el alcance de esta ley y si exige una lista detallada de lo que se incluye en los datos de datos de entrenamiento, o sólo un resumen de otra información clave.
Aunque varios artistas han presentado demandas colectivas en Estados Unidos contra empresas que ofrecen aplicaciones comerciales de generación de imágenes [129], el fenómeno de los generadores constituye una dinámica entre los artistas y las grandes empresas que se apropian de su trabajo de un carácter que hasta ahora no se había examinado en la legislación estadounidense sobre derechos de autor [56]. Esto se debe a la escala sin precedentes a la que se están utilizando las obras de los artistas para crear dichos generadores, a la reciente proliferación de los mismos, entrenados en ese contenido a disposición del público, y al nivel al que la producción realizada por este medio amenaza con desplazar a los artistas. Además, esta dinámica es distinta debido a las prácticas de recopilación de datos con las que se desarrollan los generadores de imágenes en primer lugar [67].
Aunque algunos de los perjuicios analizados en la sección 4 coinciden con los derechos protegidos por la legislación estadounidense sobre derechos de autor, otros no. También hay una serie de cuestiones jurídicas sin respuesta cuando se trata de determinar la forma en que la ley de derechos de autor se aplica a los generadores de imágenes y tanto a los insumos como a los productos que entran en su proceso de desarrollo. Por lo tanto, la legislación estadounidense sobre derechos de autor no está preparada para hacer frente a muchos de los perjuicios que estos sistemas causan a los creadores de contenidos. Esta falta de certeza sobre si se aplican los derechos de autor significa que las empresas dedicadas a la producción de sistemas generativos pueden hacerlo en gran medida sin rendir cuentas, a menos que sean demandadas por violaciones específicas de la ley de derechos de autor. Y esperar a que los tribunales se pronuncien sobre sus demandas significa que los artistas no podrán recurrir hasta que se resuelvan los casos. En esta sección, destacamos partes concretas de la legislación estadounidense sobre derechos de autor que pueden ser fuente de incertidumbre y tensión para los artistas y las empresas que utilizan sus obras. Concluimos que existen lagunas en la legislación que no tienen en cuenta el perjuicio social y económico para los artistas.

5.1 La autoría
Hasta la fecha, ninguna obra producida por un generador de imágenes ha recibido protección de los derechos de autor, y la autoría se limita a los creadores humanos. La Oficina de Derechos de Autor de EE.UU. ha confirmado recientemente esta posición al negarse a reconocer la autoría en el caso de outputs producidos  por un generador de imágenes [90]. En los EE.UU., el mero esfuerzo necesario para crear una obra de arte no hace que la obra resultante esté protegida por la ley de derechos de autor, lo que significa que el número de instrucciones o de horas dedicadas al desarrollo de una imagen utilizando generadores de texto a imagen no hará que el producto pueda ser protegido por la mencionada normativa28. Por otra parte, las propias instrucciones pueden ser protegidas si son creativas de forma independiente, y la obra resultante puede ser protegida por la ley de derechos de autor si las instrucciones forman parte de un proceso activo por el cual el creador humano ejerció un criterio al seleccionar, disponer o diseñar la obra29. La legislación estadounidense también exige que el creador de la obra sea la fuente de la creatividad y la inventiva de la misma, y la Oficina de Derechos de Autor señaló que los generadores de imágenes producen imágenes de forma “impredecible” [90] y, por lo tanto, no pueden considerarse creativos o inventivos.
Estas dimensiones de lo que significa ser un “autor” bajo la ley de derechos de autor, así como la forma en que la ley entiende el proceso de creatividad, significa que los generadores de imágenes por sí solos no pueden crear obras protegidas por la normativa. La forma en que los artistas interactúen con estas aplicaciones determinará la situación jurídica de los productos que generen. Dada esta incertidumbre sobre la situación jurídica de los productos de los generadores de imágenes, podemos dirigir nuestra atención regulatoria a los insumos que intervienen en su proceso de desarrollo. Aquí existe la oportunidad de actuar con más cautela en los procesos ex-ante del mismo, de modo que los artistas cuyas obras se utilizan para crear las herramientas no resulten perjudicados, lo que analizamos en la Sección 7.

5.2 Uso legítimo
El uso legítimo es una doctrina en materia de derechos de autor que permite el uso no autorizado o sin licencia de obras protegidas por derechos de autor, ya sea para hacer copias, distribuir o crear obras derivadas. La determinación de si algo constituye un uso legítimo se realiza caso por caso y el análisis se estructura en torno a cuatro factores30. Los más relevantes para los artistas y los sistemas generativos de IA son los factores 1 y 4, que examinan la finalidad o el carácter del uso y su impacto en el mercado [14]. Parte del primer factor incluye la cuestión de si el uso es comercial y “transformador”. El uso comercial suele pesar en contra del uso justo. Sin embargo, si se determina que el uso es transformativo, puede considerarse legítimo incluso con fines comerciales, pero no siempre31. Esto se debe en parte al cuarto factor, que examina si un uso constituye una amenaza para el mercado de la obra del creador original.
La cuestión del uso leal se plantea en dos momentos del ecosistema de generación de imágenes. En primer lugar, cuando las imágenes utilizadas para entrenar los conjuntos de datos están protegidas por derechos de autor, y especialmente si los titulares de los derechos son artistas a pequeña escala. Estos pequeños artistas podrían estar interesados en no permitir que sus obras se utilicen para derivar imágenes sintéticas, no sólo porque los generadores de imágenes podrían utilizarse para producir obras parecidas a las suyas, sino por cuestiones relacionadas con el consentimiento y el uso indebido de sus obras para el acoso, la desinformación y la incitación al odio, como se describe en la sección 4.2. Es posible que los artistas no quieran participar en la creación de una infraestructura que facilita otros perjuicios informativos, aunque el generador de imágenes no cree obras parecidas a las suyas. En este caso, sus preocupaciones no serían del tipo de las que pueden abordarse mediante el uso justo.
Además, es posible que los artistas a pequeña escala no quieran presentar demandas por infracción de los derechos de autor debido a la falta de recursos para participar en largas batallas legales contra poderosas empresas que alegan que esa copia es un uso legítimo. Esto significa, una vez más, que la legislación sobre derechos de autor no es el recurso más eficaz para ellos y que la cuestión del uso justo puede ser un problema si no se abordan en un caso en el que intervienen artistas a pequeña escala. La demanda32 presentada por Getty Images (un titular de derechos de autor de envergadura y con muchos recursos) contra Stability AI es ilustrativa de los recursos necesarios para hacer valer las reclamaciones de derechos de autor contra las empresas que producen generadores de imágenes y la diferencia de poder que existe entre los titulares de derechos de autor a pequeña escala y estas empresas. La infracción de los derechos de autor es una preocupación para los artistas a pequeña escala, pero toda la modalidad de normalización de la apropiación del arte en las etapas de conformación del dataset es un problema que está más allá del alcance de las consideraciones de uso justo.
El segundo punto en el que se plantea la cuestión del uso justo es si un generador de imágenes se utiliza para derivar obras similares a las de un artista humano y, como resultado, compite con el mercado éste, tal y como describimos en la sección 4.1. En tales casos, el cuarto factor se aplica a los generadores de imágenes, y puede pesar mucho en contra de que se considere un uso legítimo. Si la obra se utiliza de forma que desplaza la cuota de mercado del artista o le impide recibir la atribución y la compensación adecuadas, existe un claro perjuicio que puede abordarse mediante la legislación sobre derechos de autor.

5.3 Obras derivadas y derechos morales
Cuando las empresas diseñan sus productos “imitando” el estilo de un artista, resulta difícil justificar el uso de la empresa como uso legítimo [49]. En tales casos, existe una clara conexión entre el producto de la empresa y el resultado previsto, que es perjudicar al mercado de la obra del artista original.
Esta imitación o utilización de la obra y el estilo de un artista también puede estar amparada por los derechos morales de la ley de propiedad intelectual. Los derechos morales se aplican a las “artes visuales”, como pinturas y fotografías, y protegen los intereses personales y de reputación del creador en su obra impidiendo la distorsión o desfiguración de la obra original [80]. El alcance de los derechos morales en la legislación estadounidense sobre derechos de autor es limitado por diversas razones políticas [89], pero este ámbito de la legislación sobre derechos de autor puede necesitar más atención a medida que los artistas intentan exponer los perjuicios a los que se enfrentan.

6 DEBILIDADES DE LA COMUNIDAD CIENTÍFICA EN INVESTIGACIÓN DE IA
En la sección anterior, presentamos un breve análisis de la legislación estadounidense sobre derechos de autor que puede ser relevante para la lucha de los artistas contra los perjuicios a los que se enfrentan debido a la proliferación de generadores de imágenes. En esta sección, analizamos cómo la asociación de investigadores académicos con empresas ayuda a estas últimas a eludir algunas de estas leyes destinadas a proteger a los creadores.  En su artículo titulado The Steep Cost of Capture (El elevado costo de la captura), la denunciante Meredith Whittaker escribe sobre el nivel al que la investigación académica en materia de IA ha sido captada por intereses corporativos [132]. En The Grey Hoodie Project: Big tobacco, big tech, and the threat on academic integrity, Mohamed y Moustafa Abdalla comparan esta captación con el proceder de las industrias del tabaco y los combustibles fósiles, señalando que las corporaciones financian a académicos afines a sus objetivos, de manera análoga a cómo las tabacaleras financiaron a médicos que afirmaban que los cigarrillos no causaban cáncer [1]. En su artículo “You are not a stochastic parrot” (No eres un loro estocástico), Liz Weil señala que “la membrana entre el mundo académico y la industria  es permeable en casi todas partes; la membrana es prácticamente inexistente en Stanford, una escuela tan imbricada con la tecnología que puede ser difícil saber dónde acaba la universidad y empiezan las empresas” [131]. Este entrelazamiento corporativo significa que la agenda de investigación académica es fijada en cada vez mayor medida por investigadores que se alinean con poderosos intereses empresariales [51, 52, 132].

6.1 Blanqueo de datos
Uno de los resultados de esta colaboración entre empresas y universidades ha sido el blanqueo de datos [34]. Al igual que en el blanqueo de dinero para hacerlo circular y ocultar el origen de los fondos ilícitos, quienes investigan el tema sostienen que las empresas utilizan el blanqueo de datos para obtener datos a través de organizaciones sin ánimo de lucro que luego son utilizados por organizaciones con ánimo de lucro [10].
El conjunto de datos LAION utilizado para entrenar el modelo Stable Diffusion de Stability AI, que también se utiliza en su producto comercial Dream Studio, es uno de esos ejemplos33. LAION es una organización sin fines de lucro; el documento en el que se anuncia el conjunto de datos LAION-5B señala que el director general de Stability AI Emad Mostaque, “proporcionó apoyo financiero y computacional para los conjuntos de datos y modelos de código abierto” [109]. La hoja de datos asociada al conjunto de datos responde además a la pregunta “¿Quién ha financiado la creación de este conjunto de datos?” con “Este trabajo ha sido patrocinado por Hugging Face y Stability AI”. Como mencionamos en el apartado 6, aunque la legislación estadounidense sobre derechos de autor no está totalmente preparada para resolver disputas relacionadas con contenidos generados por imágenes, las empresas tienen más probabilidades de que se les concedan excepciones de uso justo en la legislación estadounidense sobre derechos de autor si alegan que el conjunto de datos se recopiló con fines de investigación, incluso si acaban utilizándolo para productos comerciales. Según la oficina de derechos de autor estadounidense, “los tribunales se fijan en cómo la parte que reclama el uso justo está utilizando la obra protegida por derechos de autor, y es más probable que consideren justos los usos educativos y no comerciales sin ánimo de lucro”34. Esto permite a empresas como Stability AI recaudar 101 millones de dólares con una valoración de 1.000 millones de dólares35, utilizando conjuntos de datos que contienen obras de artistas sin su consentimiento o atribución. Por otra parte, la responsabilidad de la creación y el mantenimiento del conjunto de datos, incluidas las cuestiones de derechos de autor o privacidad, se traslada a la empresa sin fines de lucro que los recopiló. Así pues, aunque en la actualidad no existe una distinción jurídica entre el blanqueo de datos y las prácticas habituales de extracción de datos en las comunidades de aprendizaje automático, esta cuestión requiere más atención cuando la cuestión del uso legítimo analizada en la sección 5.2 se plantea en el contexto de los generadores de imágenes.

6.2 Poder, imparcialidad del Aprendizaje Automático y ética de la IA
En The Moral Character of Cryptographic Work (El carácter moral del trabajo criptográfico), el criptógrafo Philip Rogaway señala que la comunidad criptográfica tiene la responsabilidad de no haber detenido el avance de la vigilancia [105]. Según él, una de las principales razones de esta desconexión es que los criptógrafos no tienen en cuenta cómo afecta el poder a sus análisis, y tienen una “postura políticamente distante”, y afirma que “si el poder está en algún lugar de la escena, es en las capacidades abstractas de adversarios teóricos o, en una rama diferente de nuestro campo, el gasto de energía, medido en vatios, para algún hardware”. Salvo contadas excepciones, las comunidades de equidad del aprendizaje automático y ética de la IA han fracasado igualmente a la hora de detener los daños causados por los generadores de imágenes proliferados por entidades poderosas, debido a su enfoque desproporcionado en conceptos abstractos como la definición de métricas de equidad [84, 110, 136], en lugar de prevenir los daños a diversas comunidades. Instamos a las comunidades de investigación sobre aprendizaje automático y ética de la IA a que orienten su atención hacia la prevención y mitigación de los daños causados a las comunidades marginadas, con el fin de evitar más víctimas, de las que la comunidad artística es sólo una.

7 RECOMENDACIONES PARA LA PROTECCIÓN DE ARTISTAS
Para luchar contra los perjuicios que ya han sufrido los artistas, éstos han presentado demandas colectivas en EE.UU. contra Midjourney, Stable Diffusion y DeviantArt [129], han organizado protestas, han boicoteado servicios en línea como ArtStation que permitían contenidos generados artificialmente en sus plataformas36, y siguen concienciando sobre el impacto de los generadores de imágenes en sus comunidades [92, 137, 138]. Sin embargo, como se expone en el apartado 5, los tribunales estadounidenses pueden tardar años en dictar sentencia, durante los cuales más artistas se verían perjudicados, y la actual legislación estadounidense sobre derechos de autor está mal preparada para proteger a los artistas. Por ello, los propios artistas han propuesto una serie de normas para protegerlos.
En una carta dirigida a los miembros de The Costume Designers Guild, Local 892, un sindicato de diseñadores de vestuario profesionales, ayudantes de diseñadores de vestuario e ilustradores que trabajan en cine, televisión, anuncios y otros medios de comunicación37 , se sugiere que se legisle para permitir “el uso de imágenes derivadas de IA estrictamente con fines de referencia y que se considere inaceptable entregar una obra totalmente generada por IA como un concepto acabado” [126]. Los artistas visuales que pintan en un estilo más realista suelen trabajar a partir de referencias fotográficas o construyen esculturas para entender cómo funciona la iluminación, por ejemplo, utilizando fotografías y activos de archivo o bajo licencia, o el propio trabajo del artista38. Esto permitiría a los artistas utilizar generadores de imágenes para inspirarse, del mismo modo que la naturaleza, por ejemplo, es fuente de inspiración para muchos artistas. El colectivo de artistas Arte es Ética sugiere disponer de una métrica para cuantificar la cantidad de interacción humana con un generador de imágenes a fin de determinar si una imagen generada es o no susceptible de derechos de autor, siendo un nivel de interacción del 25% o menos considerado como no susceptible de derechos de autor [41].
Aunque estas propuestas pueden abordar la cuestión de las pérdidas económicas, no impiden el uso del trabajo de los artistas para el entrenamiento de generadores de imágenes sin su consentimiento o compensación. Otras propuestas de Arte es Ética abordan esta cuestión recomendando una legislación que exija el consentimiento explícito de los creadores de contenidos antes de que su material se utilice para modelos generativos de IA [41]. Para ello, sugieren disponer de algoritmos de detección y filtrado que garanticen que los contenidos cargados pertenecen a creadores que han dado su consentimiento para que su trabajo sea licenciado u optado por su uso como datos de entrenamiento. De forma similar a las recomendaciones de [18] para garantizar que los textos sintéticos generados por los LLM lleven “una marca de agua y, por tanto, sean detectables”,  Arte es Ética sugiere que cada imagen lleve “una firma digital” en sus metadatos, que se divulgue junto con la imagen generada. Es necesaria una normativa que obligue a las organizaciones a revelar sus datos de entrenamiento, al menos a organismos específicos que puedan verificar que las imágenes de las personas no se han utilizado sin su consentimiento, a fin de hacer cumplir los requisitos de inclusión voluntaria que exigen los artistas. Es probable que este requerimiento exista al margen de los requisitos convencionales de los derechos de autor. Sin embargo, los regímenes de responsabilidad algorítmica y las leyes propuestas recientemente, como la Algorithmic Accountability Act de 2022 en EE.UU. [111], o los requisitos de transparencia de la Ley de Inteligencia Artificial de la UE, que exigirían hojas de datos [54] o documentación de datos similar [44], pueden ser útiles de forma preliminar para instituir requisitos de divulgación para las empresas.
No obstante, la mayoría de estas medidas exigen que las personas demuestren los daños, en lugar de hacer recaer en las organizaciones la responsabilidad de demostrar la ausencia de los mismos antes de hacer proliferar sus productos. Es necesario que las entidades y las partes interesadas que crean los generadores de imágenes asuman una mayor responsabilidad, en lugar de imponer cargas adicionales a los artistas para que demuestren que han sido perjudicados. Aunque la auditoría, la información y la transparencia son posibles propuestas bien conocidas para regular la IA en general [17, 22, 54, 83, 100], la formulación de propuestas específicas para el sector y la industria es esencial cuando se trata de una gobernanza eficaz [100], y es lo que se necesitará para los generadores de imágenes y el arte.
Sin embargo, la regulación, aunque se apruebe con éxito, tarda mucho tiempo en aplicarse y es, por su propia naturaleza, reactiva. Como se pregunta el artista Steven Zapata: ” ¿Qué vamos a hacer para evitar que esto se repita una y otra vez [137]?” Se trata de una pregunta fundamental que nos obliga a comprender por qué nos encontramos en una situación en la que destacados investigadores del aprendizaje automático han utilizado sus habilidades para privar de derechos a los artistas. Una respuesta es la captura corporativa de la investigación en IA que analizamos en la sección 6.1. Para combatir esta captura, la experta en informática Timnit Gebru sugiere que la financiación de la investigación por parte del gobierno no esté vinculada a los militares, con el fin de tener “alternativas al poder enormemente concentrado de unas pocas grandes empresas tecnológicas y las universidades de élite estrechamente entrelazadas con ellas” [51].
Algunos investigadores en aprendizaje automático han salido en defensa de los artistas, pero son mucho menos numerosos que los que trabajan en generadores de imágenes sin intentar mitigar sus perjuicios. Por ejemplo, el estudiante de la Universidad de Chicago Shawn Shan y sus colaboradores, asesorados por el profesor de seguridad Ben Y. Zhao, crearon una herramienta llamada Glaze que permite a los artistas añadir perturbaciones a sus imágenes para evitar que los generadores basados en modelos de difusión se utilicen para imitar sus estilos [112]. Los investigadores colaboraron con 1.000 artistas, acudiendo a ayuntamientos y elaborando encuestas para conocer sus preocupaciones. Mientras construían Glaze, Shawn Shan et al. midieron su éxito en función de hasta qué punto la herramienta respondía a las preocupaciones de los artistas. Este es un ejemplo de investigación al servicio de grupos específicos, con un proceso que identifica a las partes interesadas y los valores que deben incorporarse al trabajo, en lugar de la tendencia actual de pretender construir modelos con capacidades “generales” que no realizan tareas específicas en dominios bien definidos [53, 101]. Nos hacemos eco de las recomendaciones de [18] de utilizar metodologías como el diseño sensible a los valores y el diseño justo [33, 48] para identificar a las partes interesadas y sus valores, y trabajar en sistemas que los incorporen de forma significativa. Estos procesos animan a investigadores y profesionales a consultar a los artistas visuales y crear herramientas que les faciliten la vida, en lugar de pretender desarrollar tecnologías que “democraticen el arte” sin consultarles, como han señalado varios artistas [40, 60]. En resumen, abogamos por una regulación que impida a las organizaciones utilizar contenidos de personas para entrenar a generadores de imágenes sin su consentimiento, por una financiación de la investigación en IA que no esté vinculada a intereses corporativos y por trabajos específicos en ámbitos bien definidos, que sirven a comunidades específicas. Es mucho más fácil lograr estos objetivos si los investigadores en aprendizaje automático reciben un entrenamiento que les ayude a entender cómo la tecnología interactúa con el poder, en lugar de la postura de “visión desde ninguna parte,” criticada por las académicas feministas, que enseña a científicos e ingenieros que su trabajo es neutral [50, 105]. Por tanto, abogamos por un sistema educativo en ciencias de la computación que haga hincapié en la forma en que el poder interactúa con la tecnología [19, 105].

8 CONCLUSIÓN
En este artículo hemos examinado el alarmante impacto de los generadores de imágenes en la comunidad artística, que va desde las pérdidas económicas hasta los daños a la reputación y los estereotipos. Hemos resumido las recomendaciones para proteger a los artistas, incluida una nueva normativa que prohíba el entrenamiento de generadores de imágenes en las obras de los artistas sin el consentimiento expreso de éstos, y el desarrollo de herramientas específicas que ayuden a los artistas a protegerse contra la imitación de estilos. Nuestro trabajo se basa en el argumento de que el arte es un esfuerzo exclusivamente humano, y nos preguntamos a quién beneficiará su mercantilización. Como se pregunta el artista Steven Zapata: “¿Cómo podemos tener claras las cosas que no queremos ceder a la automatización?”[137]. 
Los generadores de imágenes pueden seguir siendo un medio de expresión artística cuando sus datos de entrenamiento no se crean a partir del trabajo no remunerado de los artistas, su proliferación no pretende suplantar a los humanos y cuando la velocidad de creación de contenidos no es lo que se prioriza. Un ejemplo de ello es el trabajo de la artista Anna Ridler, que creó una obra llamada Mosaic Virus en 201939, generando sus propios datos de entrenamiento tomando fotos de 10.000 tulipanes, que en sí misma es una obra de arte que tituló Myriad (Tulipanes). A continuación, entrenó a un generador de imágenes basado en GAN con estos datos, creando un video en el que la apariencia de un tulipán está controlada por el precio del bitcoin, “volviéndose más rayado a medida que sube el precio del bitcoin -fueron estas mismas rayas codiciadas las que una vez desencadenaron la manía de los tulipanes… un fenómeno del siglo XVII que vio subir y caer el precio de los bulbos de tulipán… A menudo se considera como uno de los primeros casos registrados de una burbuja especulativa” [21]. Si orientamos el objetivo de las aplicaciones de generación de imágenes a potenciar la creatividad humana en lugar de intentar suplantarla, podremos tener obras de arte como las de Anna Ridler, que exploran su uso como nuevo medio, y no las que se apropian del trabajo de los artistas sin su consentimiento o compensación.

AGRADECIMIENTOS
Gracias a Emily Denton, Énora Mercier, Jessie Lam, Karla Ortiz, Neil Turkewitz, Steven Zapata y a los revisores anónimos por sus valiosos comentarios.


AIES ’23, 08–10 de Agosto, 2023, Montréal, QC, Canada


NOTAS

1 https://www.nytimes.com/2023/01/23/business/microsoft-chatgpt-artificial-intelligence.html

2 https://dreamstudio.com

3 https://web.archive.org/web/20220823032632/https://twitter.com/EMostaque/status/1561917541743841280, referring to V3

4 https://techcrunch.com/2022/10/17/stability-ai-the-startup-behind-stablediffusion-raises-101m/

5 https://web.archive.org/web/20220912045000/https://twitter.com/sama/status/1484950632331034625 , https://web.archive.org/web/20220122181741/https://twitter.com/sama/status/1484952151222722562

6 https://web.archive.org/web/20230811193157/https://twitter.com/emostaque/status/1591436813750906882

7 https://web.archive.org/web/20230224175654/https://twitter.com/mollycrabapple/status/1606148326814089217

8 https://www.youtube.com/watch?app=desktop&v=ZbVRYqsntDY

9 https://web.archive.org/web/20230124003305/https://twitter.com/spiridude/status/1616476006444826625

10 https://ondisneyplus.disney.com/show/she-hulk

11 https://ondisneyplus.disney.com/show/hawkeye

12 https://www.disneyplus.com/series/invasion-secreta/3iHQtD1BDpgN

13 https://openai.com/blog/chatgpt

14 https://www.facebook.com/story.php?story_fbid=pfbid02L9Qkj6Bnidy6zL7hRjvQ9MuYLQF3jSUXcGLRjjgZhxH1LysnV4DZRUgMyhLMvKxGl&id=882110175

15 https://www.polygon.com/23767640/ai-mcu-secret-invasion-opening-credits

16 https://laion-aesthetic.datasette.io/laion-aesthetic-6pls/images

17 https://web.archive.org/web/20230811043246/https://twitter.com/Khallion/status/1615464905565429760

18 https://web.archive.org/web/20230117153958/https://twitter.com/shoomlah/status/1615215285526757381

19 https://waxy.org/2022/11/invasive-diffusion-how-one-unwilling-illustratorfound-herself-turned-into-an-ai-model/

20 https://www.daz3d.com/

21 https://projects.balmain.com/us/balmain/balmains-new-virtual-army

22 https://hypebae.com/2019/2/ellesse-ss19-campaign-shudu-virtual-cgi-digitalinfluencer-model

23 https://www.vogue.com.au/fashion/trends/meet-shudu-the-digital-supermodelwho-is-changing-the-face-of-fashion-one-campaign-at-a-time/news-story/80a96d3d70043ed2629b5c0bc03701c1

24 https://www.deepagency.com/

25 https://www.muddycolors.com/2019/09/results-of-the-artist-income-goalssurvey-2019/

26 https://news.artnet.com/art-world/artist-financial-stability-survey-1300895

27 https://www.euaiact.com/

28 Bellsouth Advertising & Pub. v. Donnelley Inf. Pub., 933 F. 2d 952 – Court of Appeals, 11th Circuit 1991

29 Feist Publications, Inc. v. Rural Tel. Serv. Co., 499 U.S. 340 (1991)

30 https://www.govinfo.gov/app/details/USCODE-2011-title17/USCODE-2011-title17-chap1-sec107

31 Fox News Network, LLC v. TVEyes, Inc., No. 15-3885 (2d Cir. 2018)

32 https://news.bloomberglaw.com/ip-law/getty-images-sues-stability-ai-over-artgenerator-ip-violations

33 https://stability.ai/blog/stablediffusion2-1-release7-dec-2022

34 https://www.copyright.gov/fair-use/

35 https://techcrunch.com/2022/10/17/stability-ai-the-startup-behind-stablediffusion-raises-101m/

36 https://www.theverge.com/2022/12/23/23523864/artstation-removing-anti-aiprotest-artwork-censorship

37 https://www.costumedesignersguild.com/

38 https://cynthia-sheppard.squarespace.com/#/burn-out/

39 http://annaridler.com/mosaic-virus


REFERENCIAS

[1] Mohamed Abdalla and Moustafa Abdalla. 2021. The Grey Hoodie Project: Big Tobacco, Big Tech, and the Threat on Academic Integrity. In Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society (Virtual Event, USA) 39 http://annaridler.com/mosaic-virus (AIES ’21). Association for Computing Machinery, New York, NY, USA, 287–297. https://doi.org/10.1145/3461702.3462563

[2] Adobe. 2022. Generative AI Content. Retrieved March 13, 2023 from https://helpx.adobe.com/ca/stock/contributor/help/generative-ai-content.html

[3] Adobe. 2023. Generative AI for creatives – Adobe Firefly. Retrieved July 6, 2023 from https://www.adobe.com/sensei/generative-ai/firefly.html

[4] Stability AI. 2022. Stable Diffusion Launch Announcement. Retrieved March 13, 2023 from https://stability.ai/blog/stable-diffusion-announcement

[5] Stability AI. 2022. Stable Diffusion Public Release. https://stability.ai/blog/stablediffusion-public-release/

[6] Thomas M Alexander. 2013. The human eros: Eco-ontology and the aesthetics of existence. Fordham University Press.

[7] Abdullah Alfaraj. 2023. Auto-Photoshop-StableDiffusion-Plugin. Retrieved March 13, 2023 from https://github.com/AbdullahAlfaraj/Auto-PhotoshopStableDiffusion-Plugin

[8] Sarah Andersen. 2022. The Alt-Right Manipulated My Comic. Then A.I. Claimed It. New York Times (Dec. 31, 2022). https://www.nytimes.com/2022/12/31/opinion/sarah-andersen-how-algorithim-took-my-work.html

[9] Artbreeder. 2022. artbreeder. Retrieved March 13, 2023 from https://www.artbreeder.com/

[10] Andy Baio. 2021. AI Data Laundering: How Academic and Nonprofit Researchers Shield Tech Companies from Accountability. Waxy (2021).

[11] Andy Baio. 2022. Exploring 12 Million of the 2.3 Billion Images Used to Train Stable Diffusion’s Image Generator. Retrieved July 6, 2023 from https://waxy.org/2022/08/exploring-12-million-of-the-images-used-to-train-stablediffusions-image-generator/

[12] Ollie Barder. 2017. Katsuhiro Otomo On Creating ’Akira’ And Designing The Coolest Bike In All Of Manga And Anime. Forbes (2017).

[13] Alexis T Baria and Keith Cross. 2021. The brain is a computer is a brain: neuroscience’s internal debate and the social significance of the Computational Metaphor. arXiv preprint arXiv:2107.14042 (2021). 

[14] Barton Beebe. 2008. An Empirical Study of U.S. Copyright Fair Use Opinions, 1978-2005. University of Pennsylvania Law Review 156, 3 (2008). https://scholarship.law.upenn.edu/penn_law_review/vol156/iss3/1/

[15] Clive Bell. 1916. Art. Chatto & Windus.

[16] Emily M Bender. 2022. Resisting Dehumanization in the Age of “AI”. (2022).

[17] Emily M Bender and Batya Friedman. 2018. Data statements for natural language processing: Toward mitigating system bias and enabling better science. Transactions of the Association for Computational Linguistics 6 (2018), 587–604.

[18] Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, and Shmargaret Shmitchell. 2021. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (Virtual Event, Canada) (FAccT ’21). Association for Computing Machinery, New York, NY, USA, 610–623. https://doi.org/10.1145/ 3442188.3445922

[19] Ruha Benjamin. 2020. Race after technology: Abolitionist tools for the new jim code.

[20] blueturtleai. 2023. gimp-stable-diffusion. Retrieved March 13, 2023 from https://github.com/blueturtleai/gimp-stable-diffusion

[21] Ruby Boddington. 2019. Anna Ridler uses AI to turn 10,000 tulips into a video controlled by bitcoin. It’s Nice That (2019).

[22] Karen L Boyd. 2021. Datasheets for datasets help ml engineers notice and understand ethical issues in training data. Proceedings of the ACM on HumanComputer Interaction 5, CSCW2 (2021), 1–27.

[23] Jo Ann Boydston. 2008. The Middle Works of John Dewey, Volume 9, 1899-1924: Democracy and Education 1916. Southern Illinois University Press.

[24] Andrew Brock, Jeff Donahue, and Karen Simonyan. 2018. Large Scale GAN Training for High Fidelity Natural Image Synthesis. https://doi.org/10.48550/ARXIV.1809.11096

[25] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. 2020. Language models are few-shot learners. Advances in neural information processing systems 33 (2020), 1877–1901.

[26] Canva. 2022. Text to Image – Canva Apps. Retrieved March 13, 2023 from https://www.canva.com/apps/text-to-image

[27] Nicholas Carlini, Jamie Hayes, Milad Nasr, Matthew Jagielski, Vikash Sehwag, Florian Tramèr, Borja Balle, Daphne Ippolito, and Eric Wallace. 2023. Extracting Training Data from Diffusion Models. https://doi.org/10.48550/ARXIV.2301.13188

[28] Electronic Privacy Information Center. 2023. Generating Harms. Generative AI’s Impact & Paths Forward. Retrieved July 6, 2023 from https://epic.org/doc uments/generating-harms-generative-ais-impact-paths-forward/

[29] Chen Chen, Jie Fu, and Lingjuan Lyu. 2023. A Pathway Towards Responsible AI Generated Content. https://doi.org/10.48550/ARXIV.2303.01325

[30] Mark Chen, Alec Radford, Rewon Child, Jeffrey Wu, Heewoo Jun, David Luan, and Ilya Sutskever. 2020. Generative Pretraining From Pixels. In Proceedings of the 37th International Conference on Machine Learning (Proceedings of Machine Learning Research, Vol. 119), Hal Daumé III and Aarti Singh (Eds.). PMLR, 1691– 1703. https://proceedings.mlr.press/v119/chen20s.html

[31] Neil Clarke. 2023. A Concerning Trend. (2023).

[32] Samantha Cole. 2023. Netflix Made an Anime Using AI Due to a ’Labor Shortage,’ and Fans Are Pissed. Vice (2023).

[33] Sasha Costanza-Chock. 2020. Design justice: Community-led practices to build the worlds we need. The MIT Press.

[34] Subhasish Dasgupta. 2005. Encyclopedia of virtual communities and technologies. IGI Global.

[35] Li Deng. 2012. The mnist database of handwritten digit images for machine learning research. IEEE Signal Processing Magazine 29, 6 (2012), 141–142.

[36] John Dewey. 1934. Art as Experience. Penguin Group (USA) Inc.

[37] Prafulla Dhariwal and Alex Nichol. 2021. Diffusion Models Beat GANs on Image Synthesis. https://doi.org/10.48550/ARXIV.2105.05233

[38] Alexei A. Efros and William T. Freeman. 2001. Image Quilting for Texture Synthesis and Transfer. In Proceedings of the 28th Annual Conference on Computer Graphics and Interactive Techniques (SIGGRAPH ’01). Association for Computing Machinery, New York, NY, USA, 341–346. https://doi.org/10.1145/383259.383296

[39] Ziv Epstein, Sydney Levine, David G Rand, and Iyad Rahwan. 2020. Who gets credit for AI-generated art? Iscience 23, 9 (2020).

[40] Arte es Ética. 2023. Arte es Ética presente en la ACM FAccT Conference 2023. Retrieved July 6, 2023 from https://arteesetica.org/arte-es-etica-presente-en-laacm-facct-conference-2023/

[41] Arte es Ética. 2023. Un manifiesto para comprender y regular la I.A. generativa. (April 2023). https://arteesetica.org

[42] Patrick Esser, Robin Rombach, and Björn Ommer. 2020. Taming Transformers for High-Resolution Image Synthesis. https://doi.org/10.48550/ARXIV.2012.09841 

[43] Alberto Cerdá Estarelles. 2023. ue-stable-diffusion. Retrieved March 13, 2023 from https://github.com/albertotrunk/ue-stable-diffusion

[44] European Commission. 2021. The Artificial Intelligence Act. (2021).

[45] Everimaging. 2022. Fotor. Retrieved March 13, 2023 from https://www.fotor.com/features/ai-image-generator/

[46] Creative Fabrica. 2022. CF Spark AI Art Generator. Retrieved March 13, 2023 from https://www.creativefabrica.com/spark/ai-image-generator/

[47] Mureji Fatunde and Crystal Tse. 2022. Stability AI Raises Seed Round at $1 Billion Value. Bloomberg (Oct. 17, 2022). https://www.bloomberg.com/news/articles/ 2022-10-17/digital-media-firm-stability-ai-raises-funds-at-1-billion-value

[48] Batya Friedman. 1996. Value-sensitive design. interactions 3, 6 (1996), 16–23.

[49] Thania Garcia. 2023. David Guetta Replicated Eminem’s Voice in a Song Using Artificial Intelligence. Variety (Feb. 8, 2023). https://variety.com/2023/music/news/david-guetta-eminem-artificial-intelligence-1235516924/

[50] Timnit Gebru. 2019. Chapter on race and gender. Oxford Handbook on AI Ethics. Available from: http://arxiv.org/abs/1908.06165 [Accessed 28th April 2020] (2019).

[51] Timnit Gebru. 2021. For truly ethical AI, its research must be independent from big tech. Guardian (2021).

[52] Timnit Gebru. 2022. Effective Altruism is Pushing a Dangerous Brand of ‘AI Safety’. Wired (2022).

[53] Timnit Gebru. 2023. Eugenics and The Promise of Utopia through Artificial General Intelligence.

[54] Timnit Gebru, Jamie Morgenstern, Briana Vecchione, Jennifer Wortman Vaughan, Hanna Wallach, Hal Daumé Iii, and Kate Crawford. 2021. Datasheets for datasets. Commun. ACM 64, 12 (2021), 86–92.

[55] Deep Dream Generator. 2022. Deep Dream Generator. Retrieved March 13, 2023 from https://deepdreamgenerator.com/

[56] Jessica Gillotte. 2020. Copyright Infringement in AI-Generated Artworks. UC Davis Law Review 53, 5 (2020). https://ssrn.com/abstract=3657423

[57] Ian Goodfellow, Yoshua Bengio, and Aaron Courville. 2016. Deep Learning. MIT Press. http://www.deeplearningbook.org

[58] Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David WardeFarley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. 2014. Generative Adversarial Networks. https://doi.org/10.48550/ARXIV.1406.2661 

[59] Abhishek Gupta. 2022. Unstable Diffusion: Ethical challenges and some ways forward. Retrieved March 13, 2023 from https://montrealethics.ai/unstablediffusion-ethical-challenges-and-some-ways-forward/

[60] The Distributed AI Research Institute. 2023. Stochastic Parrots Day: What’s Next? A Call to Action. Retrieved July 6, 2023 from https://peertube.dairinstitute.org/w/a2KCCzj2nyfrq5FvJbL9jY

[61] Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, and Alexei A. Efros. 2016. Image-toImage Translation with Conditional Adversarial Networks. https://doi.org/10.48550/ARXIV.1611.07004

[62] Philip J Ivanhoe. 2000. Confucian moral self cultivation. Hackett Publishing.

[63] Nina Kalitina and Nathalia Brodskaya. 2012. Claude Monet. Parkstone International.

[64] KALTBLUT. 2023. Feral File presents In/Visible: Where AI Meets Artistic Diversity, A Fascinating Encounter of Limitations and Storytelling. Retrieved July 6, 2023 from https://www.kaltblut-magazine.com/feral-file-presentsin-visible-where-ai-meets-artistic-diversity-a-fascinating-encounter-of-limitations-and-storytelling/

[65] Tero Karras, Samuli Laine, and Timo Aila. 2018. A Style-Based Generator Architecture for Generative Adversarial Networks. https://doi.org/10.48550/ARXIV.1812.04948

[66] Kevin Kelly. 2022. Picture Limitless Creativity at Your Fingertips. Wired (2022).

[67] Mehtab Khan and Alex Hanna. 2022. The Subjects and Stages of AI Dataset Development: A Framework for Dataset Accountability. (Sept. 13, 2022). https://doi.org/10.2139/ssrn.4217148

[68] Diederik P Kingma and Max Welling. 2013. Auto-Encoding Variational Bayes. https://doi.org/10.48550/ARXIV.1312.6114

[69] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton. 2012. ImageNet Classification with Deep Convolutional Neural Networks. In Advances in Neural Information Processing Systems, F. Pereira, C.J. Burges, L. Bottou, and K.Q. Weinberger (Eds.), Vol. 25. Curran Associates, Inc. https://proceedings.neurips.cc/p aper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf 

[70] Jennifer C Lena and Danielle J Lindemann. 2014. Who is an artist? New data for an old question. Poetics 43 (2014), 70–85.

[71] Craiyon LLC. 2022. Craiyon. Retrieved March 13, 2023 from https://www.craiyon.com/

[72] Freshfields Bruckhaus Deringer LLP. 2023. Has copyright caught up with the AI Act? Retrieved July 6, 2023 from https://www.lexology.com/library/detail.aspx?g=d9820844-8983-4aec-88d7-66e385627b4a#:~:text=Among%20the%20amendments%20to%20the,used%20for%20training%20those%20models

[73] MyHeritage Ltd. 2022. AI Time Machine. Retrieved March 13, 2023 from https://www.myheritage.com/ai-time-machine

[74] Michele Marra. 1995. Japanese Aesthetics: The construction of meaning. Philosophy East and West (1995), 367–386.

[75] Michael F Marra. 1999. Modern Japanese aesthetics: a reader. University of Hawaii Press.

[76] Rick Merritt. 2023. Getty Images bans AI-generated content over fears of legal challenges. NVIDIA Blog ( 21, 2023). https://blogs.nvidia.com/blog/2023/03/21/generative-ai-getty-images/

[77] Lauren Michele Jackson. 2018. Shudu Gram Is a White Man’s Digital Projection of Real-Life Black Womanhood. New Yorker (2018).

[78] Midjourney. 2022. Midjourney. Retrieved March 13, 2023 from https://www.midjourney.com/home/

[79] Midjourney. 2023. Version. Retrieved July 7, 2023 from https://docs.midjourney.com/docs/model-versions

[80] Martin Miernicki and Irene Ng (Huang Ying). 2021. Artificial intelligence and moral rights. AI & SOCIETY 36, 1 (March 1, 2021), 319–329. https://doi.org/10.1007/s00146-020-01027-6

[81] Zosha Millman. 2023. Yes, Secret Invasion’s opening credits scene is AI-made — here’s why. Polygon (June 22, 2023). https://www.polygon.com/23767640/aimcu-secret-invasion-opening-credits

[82] Mehdi Mirza and Simon Osindero. 2014. Conditional Generative Adversarial Nets. https://doi.org/10.48550/ARXIV.1411.1784

[83] Margaret Mitchell, Simone Wu, Andrew Zaldivar, Parker Barnes, Lucy Vasserman, Ben Hutchinson, Elena Spitzer, Inioluwa Deborah Raji, and Timnit Gebru. 2019. Model cards for model reporting. In Proceedings of the conference on fairness, accountability, and transparency. 220–229.

[84] Arvind Narayanan. 21. Fairness definitions and their politics. In Tutorial presented at the Conf. on Fairness, Accountability, and Transparency.

[85] Andrew Ng and Michael Jordan. 2001. On Discriminative vs. Generative Classifiers: A comparison of logistic regression and naive Bayes. In Advances in Neural Information Processing Systems, T. Dietterich, S. Becker, and Z. Ghahramani (Eds.), Vol. 14. MIT Press. https://proceedings.neurips.cc/paper/2001/file/7b7a 53e239400a13bd6be6c91c4f6c4e-Paper.pdf

[86] Alex Nichol and Prafulla Dhariwal. 2021. Improved Denoising Diffusion Probabilistic Models. https://doi.org/10.48550/ARXIV.2102.09672

[87] Leonardo Nicoletti and Dina Bass. 2023. Humans Are Biased. Generative AI Is Even Worse. Bloomberg (2023). https://www.bloomberg.com/graphics/2023-generative-ai-bias/

[88] Nkiru Nzegwu. 2005. Art and community: A social conception of beauty and individuality. A companion to African Philosophy (2005), 415–424.

[89] United States Copyright Office. 2019. Authors, Attribution, and Integrity: Examining Moral Rights in the United States. https://www.copyright.gov/policy/moralrights/full-report.pdf 

[90] United States Copyright Office. 2023. Re: Zarya of the Dawn (Registration # VAu001480196). https://www.copyright.gov/docs/zarya-of-the-dawn.pdf

[91] OpenAI. 2022. DALL-E 2. Retrieved March 13, 2023 from https://openai.com/p roduct/dall-e-2

[92] Karla Ortiz. 2022. Why AI Models are not inspired like humans. (Dec.10 2022). https://www.kortizblog.com/blog/why-ai-models-are-not-inspired likehumans

[93] Stephen Owen. 2020. Readings in Chinese literary thought. Vol. 30. BRILL.

[94] LLC Panabee. 2022. Hotpot. Retrieved March 13, 2023 from https://hotpot.ai/

[95] Javier Portilla and Eero P. Simoncelli. 2000. A Parametric Texture Model Based on Joint Statistics of Complex Wavelet Coefficients. International Journal oComputer Vision 40, 1 (Oct. 1, 2000), 49–70. https://doi.org/10.1023/A:1026553619983

[96] Anshuman Prasad, Pushkala Prasad, and Raza Mir. 2011. ‘One mirror in another’: Managing diversity and the discourse of fashion. Human Relations 64, 5 (2011), 703–724.

[97] Inc. Prisma Labs. 2022. Lensa. Retrieved March 13, 2023 from https://prismaai.com/lensa

[98] Rida Qadri, Renee Shelby, Cynthia L. Bennett, and Emily Denton. 2023. AI’s Regimes of Representation: A Community-centered Study of Text-to-Image Models in South Asia. In 2023 ACM Conference on Fairness, Accountability, and Transparency. ACM. https://doi.org/10.1145/3593013.3594016

[99] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, and Ilya Sutskever. 2021. Learning Transferable Visual Models From Natural Language Supervision. https://doi.org/10.48550/ARXIV.2103.00020

[100] Inioluwa Deborah Raji. 2022. From Algorithmic Audits to Actual Accountability: Overcoming Practical Roadblocks on the Path to Meaningful Audit Interventions for AI Governance. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society. 5–5.

[101] Inioluwa Deborah Raji, Emily M Bender, Amandalynne Paullada, Emily Denton, and Alex Hanna. 2021. AI and the everything in the whole wide world benchmark. arXiv preprint arXiv:2111.15366 (2021).

[102] Aditya Ramesh, Prafulla Dhariwal, Alex Nichol, Casey Chu, and Mark Chen. 2022. Hierarchical Text-Conditional Image Generation with CLIP Latents. https://doi.org/10.48550/ARXIV.2204.06125

[103] Aditya Ramesh, Mikhail Pavlov, Gabriel Goh, Scott Gray, Chelsea Voss, Alec Radford, Mark Chen, and Ilya Sutskever. 2021. Zero-Shot Text-to-Image Generation. https://doi.org/10.48550/ARXIV.2102.12092

[104] Ali Razavi, Aaron van den Oord, and Oriol Vinyals. 2019. Generating Diverse High-Fidelity Images with VQ-VAE-2. https://doi.org/10.48550/ARXIV.1906.00446

[105] Phillip Rogaway. 2015. The moral character of cryptographic work. Cryptology ePrint Archive (2015).

[106] Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, and Björn Ommer. 2021. High-Resolution Image Synthesis with Latent Diffusion Models. https://doi.org/10.48550/ARXIV.2112.10752

[107] Inc. Runway AI. 2022. Runway. Retrieved March 13, 2023 from https://runwayml.com/

[108] Chitwan Saharia, William Chan, Saurabh Saxena, Lala Li, Jay Whang, Emily Denton, Seyed Kamyar Seyed Ghasemipour, Burcu Karagol Ayan, S. Sara Mahdavi, Rapha Gontijo Lopes, Tim Salimans, Jonathan Ho, David J Fleet, and Mohammad Norouzi. 2022. Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding. https://doi.org/10.48550/ARXIV.2205.11487

[109] Christoph Schuhmann, Romain Beaumont, Richard Vencu, Cade Gordon, Ross Wightman, Mehdi Cherti, Theo Coombes, Aarush Katta, Clayton Mullis, Mitchell Wortsman, Patrick Schramowski, Srivatsa Kundurthy, Katherine Crowson, Ludwig Schmidt, Robert Kaczmarczyk, and Jenia Jitsev. 2022. LAION-5B: An open large-scale dataset for training next generation image-text models. https://doi.org/10.48550/ARXIV.2210.08402

[110] Andrew D Selbst, Danah Boyd, Sorelle A Friedler, Suresh Venkatasubramanian, and Janet Vertesi. 2019. Fairness and abstraction in sociotechnical systems. In Proceedings of the conference on fairness, accountability, and transparency. 59–68.

[111] Ron Sen. Wyden. 2022. The Algorithmic Accountability Act of 2022. (2022).

[112] Shawn Shan, Jenna Cryan, Emily Wenger, Haitao Zheng, Rana Hanocka, and Ben Y Zhao. 2023. GLAZE: Protecting Artists from Style Mimicry by Text-toImage Models. arXiv preprint arXiv:2302.04222 (2023).

[113] Shutterstock. 2022. Shutterstock. Retrieved March 13, 2023 from https://www.shutterstock.com/

[114] Zachary Small. 2023. Black Artists Say A.I. Shows Bias, With Algorithms Erasing Their History. New York Times (July 4, 2023). https://www.nytimes.com/2023/07/04/arts/design/black-artists-bias-ai.html

[115] Francesca Sobande. 2021. CGI influencers are here. Who’s profiting from them should give you pause. Fast Company (2021).

[116] Jascha Sohl-Dickstein, Eric A. Weiss, Niru Maheswaranathan, and Surya Ganguli. 2015. Deep Unsupervised Learning using Nonequilibrium Thermodynamics. https://doi.org/10.48550/ARXIV.1503.03585

[117] Gowthami Somepalli, Vasu Singla, Micah Goldblum, Jonas Geiping, and Tom Goldstein. 2022. Diffusion Art or Digital Forgery? Investigating Data Replication in Diffusion Models. https://doi.org/10.48550/ARXIV.2212.03860

[118] Jiaming Song, Chenlin Meng, and Stefano Ermon. 2020. Denoising Diffusion Implicit Models. https://doi.org/10.48550/ARXIV.2010.02502

[119] Ramya Srinivasan and Kanji Uchino. 2021. Biases in generative art: A causal look from the lens of art history. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. 41–51.

[120] A. Srivastava, A.B. Lee, E.P. Simoncelli, and S.-C. Zhu. 2003. On Advances in Statistical Modeling of Natural Images. Journal of Mathematical Imaging and Vision 18, 1, 17–33. https://doi.org/10.1023/A:1021889010444 

[121] Inc. Stablecog. 2022. Stablecog. Retrieved March 13, 2023 from https://stablecog.com/

[122] starryai. 2022. starryai. Retrieved March 13, 2023 from https://starryai.com/

[123] NightCafe Studio. 2022. AI Art Generator. Retrieved March 13, 2023 from https://nightcafe.studio/

[124] Chen Sun, Abhinav Shrivastava, Saurabh Singh, and Abhinav Gupta. 2017. Revisiting Unreasonable Effectiveness of Data in Deep Learning Era. https://doi.org/10.48550/ARXIV.1707.02968

[125] Kentaro Takeda, Akira Oikawa, and Yukiko Une. 2023. Generative AI mania brings billions of dollars to developers. Nikkei Asia (March 4, 2023). https: //asia.nikkei.com/Spotlight/Datawatch/Generative-AI-mania-brings-billionsof -dollars-to-developers

[126] The Costume Designers Guild, Local 892. 2022. A Letter to Membership. (2022).

[127] Nitasha Tiku. 2022. AI can now create any image in seconds, bringing wonder and danger. Washington Post (Sept. 28, 2022). https://www.washingtonpost.c om/technology/interactive/2022/artificial-intelligence-images-dall-e/

[128] Unite.AI. 2022. Images.AI. Retrieved March 13, 2023 from https://images.ai/

[129] James Vincent. 2022. AI art tools Stable Diffusion and Midjourney targeted with copyright lawsuit. The Verge (2022).

[130] James Vincent. 2022. Getty Images bans AI-generated content over fears of legal challenges. The Verge (Sept. 21, 2022). https://www.theverge.com/2022/9/21/23364696/getty-images-ai-ban-generated-artwork-illustration-copyright

[131] Liz Weil. 2023. You are not a stochastic parrot. New York Magazine (2023).

[132] Meredith Whittaker. 2021. The steep cost of capture. Interactions 28, 6 (2021), 50–55.

[133] WOMBO. 2022. Dream by WOMBO. Retrieved March 13, 2023 from https://dream.ai/

[134] Writesonic. 2022. Photosonic. Retrieved March 13, 2023 from https://photosonic.writesonic.com/

[135] Xinchen Yan, Jimei Yang, Kihyuk Sohn, and Honglak Lee. 2015. Attribute2Image: Conditional Image Generation from Visual Attributes. https://doi.org/10.48550/ARXIV.1512.00570

[136] Meg Young, Michael Katell, and PM Krafft. 2022. Confronting Power and Corporate Capture at the FAccT Conference. In 2022 ACM Conference on Fairness, Accountability, and Transparency. 1375–1386.

[137] Steven Zapata. 2023. AI/ML Media Advocacy Summit Keynote: Steven Zapata. https://www.youtube.com/clip/UgkxNwkkN9SnPpSJlnbkDK4q-NgxnaAyPHL L Presented through the Concept Art Association YouTube Channel.

[138] Steven Zapata. 2023. Who Makes the Art in Utopia? https://www.youtube.com/watch?v=kL6jCT07vUQ Presented at TEDxBerkeley, Berkeley, CA.

[139] Viola Zhou. 2023. AI is already taking video game illustrators’ jobs in China. Rest of World (April 11, 2023). https://restofworld.org/2023/ai-image-chinavideo-game-layoffs/