Si eres un artista en las redes sociales, probablemente habrás tenido al menos una interacción con alguien que no entiende por qué luchamos contra las empresas de IA y cuál es el problema con la IA generativa tal y como existe ahora mismo. Todos hemos oído las mismas preguntas, así que queremos proporcionarte una forma fácil de responderlas, para que no tengas que perder tiempo respondiendo a la gente que te las hace. Para simplificar, este artículo habla específicamente de la IA que genera imágenes, pero creemos que los mismos puntos se pueden hacer sobre cualquier tipo de IA Generativa.

► ¿Cómo funcionan las IA generativas de imágenes?
Estas IA generativas pueden generar resultados tras haber sido entrenadas con grandes cantidades de imágenes. Estas imágenes son recopiladas y cada una de ellas lleva asociada una etiqueta (tag) que la describe. El conjunto de imágenes así compuesto se utiliza a continuación en la fase de entrenamiento de la máquina. Lo que “aprende” la máquina es el espacio latente, un espacio virtual en el que las imágenes utilizadas en el entrenamiento se representan en forma de parámetros estadísticos. Cuantas más copias de una imagen haya en el conjunto de datos inicial, más influirá esa imagen en el espacio latente y en lo que genera la máquina. El espacio latente es el mundo de la máquina y en él están las reglas que sigue la máquina para generar imágenes. La máquina no puede salirse de este conjunto de reglas.
También es extremadamente complicado para los humanos entender cómo es el espacio latente de una IA y qué reglas sigue (ver el episodio del 27 de febrero de 2023 de “Last week tonight with John Oliver” para obtener más información sobre el problema de la caja negra).
► Bien, entonces, ¿cuál es el problema?
La tecnología es fascinante y no es un problema en sí misma. El problema es el modelo de negocio de un puñado de empresas que ofrecen los servicios de IA generativa más destacados. Para formar a sus IAs, estas empresas recopilaron datos (obras creativas, pero también fotografías y datos personales y biométricos) sin pedir el consentimiento de los propietarios y violando las leyes europeas de derechos de autor y de privacidad. Los servicios de estas IA se venden después en el mercado, compitiendo directamente con los propietarios de los datos originales, devaluando su trabajo y comprometiendo su bienestar. Estamos hablando de corporaciones que hacen lo que quieren con todos nuestros datos, sin permitirnos protestar. Los problemas, sin embargo, no terminan ahí. Para formar a sus IA, estas empresas tienen que recurrir a la explotación de mano de obra mal remunerada procedente de países del tercer mundo, por ejemplo. Otro tema es el del impacto ambiental que tienen estos servicios, tanto por la energía que se consume para la formación, como por la que se utiliza en cada solicitud que realizan los usuarios.
► ¿No existe una forma ética de utilizarlas?
El arte generativo es algo que existe desde hace años y se ha utilizado de forma ética y creativa. Hay varios ejemplos de aplicaciones éticas de IA generativa en el arte (“Mosaic Virus”, de Anna Ridler), de IAs entrenadas con datos de dominio público o con el consentimiento de los propietarios originales, curados, transparentes y con fines precisos.
No es el caso de los principales y más populares servicios de IA generativa. Estas IA son una expresión de los peores aspectos del capitalismo y los abusos de los trabajadores, los creativos y el medio ambiente son estructurales en ellos.Firefly de Adobe es, sobre el papel, una excepción, ya que su conjunto de datos se ha creado con contenido propiedad de Adobe,pero algunas de las prácticas de Adobe no son claras y ponen en duda la ética de la operación. Algunas personas argumentan que entrenar un modelo existente con su propio trabajo es ético. La práctica del ajuste consiste en refinar un modelo existente entrenándolo con un conjunto preciso de datos para emular el estilo de un artista concreto. Hacer algo así con tu propio trabajo sigue significando confiar en un modelo entrenado de forma poco ética y no legal. Del mismo modo, escribir “prompts” que no utilicen los nombres de artistas concretos no elude el uso de las obras de esos artistas en el entrenamiento.
► ¿Qué pasa si sólo uso este material como referencia?
Utilizar estos servicios como referencia sigue significando apoyar y financiar empresas que operan ilegalmente. Luego hay que hablar de opciones artísticas y creativas. Estas IAs se forman con contenidos elegidos y curados por quienes los desarrollan, contenidos a los que no tenemos acceso. Utilizarlos significa subcontratar el proceso creativo y de referencia a una tercera persona desconocida para nosotros, que ha elegido imágenes según criterios poco claros y de quién heredamos toda una serie de prejuicios, algunos evidentes, otros no (por ejemplo, Midjourney no puede concebir una persona autista que no sea masculina, blanca y triste). No sólo eso, debido a cómo funcionan estos algoritmos, los resultados que dan son siempre una expresión de lo más representado en sus conjuntos de datos, por lo tanto, de lo que es más comercial y convencional.
► Bueno, pero los artistas también copian, ¿no?
¿Y qué diferencia habría con un collage?
Si un artista copia a otro comete plagio. Si vamos a dar un discurso inspirador, hay que recordar que las IAs son máquinas no sensibles y no se inspiran en nada. No tienen nada de inteligentes. Un humano puede mirar un gato una vez y averiguar cómo dibujarlo, mientras que una máquina necesita cientos de miles de imágenes de un gato para generar una imagen de él. El ser humano es capaz de abstraer y razonar fuera de contexto. El poeta italiano Giacomo Leopardi, mirando su jardín, vio la crueldad de la Madre Naturaleza y escribió poemas sobre Dios y la vida. Una IA que mire el jardín de Leopardi sólo verá el jardín de Leopardi.
Un collage presenta una elección consciente por parte del autor de qué piezas utilizar. Probablemente sea una pieza única y sus partes sigan siendo reconocibles. Un usuario que recurre a los servicios de una IA no tiene control sobre los materiales utilizados. Las IAs no hacen piezas únicas, están diseñadas para generar cosas en cantidades industriales para su uso a nivel comercial. Están diseñadas para generar imágenes sin que los datos de partida sean inmediatamente reconocibles y atribuibles a los autores originales.
► ¡Oh, bueno, sólo son herramientas!
Son servicios comerciales: tú haces una petición como cliente para tener algo y la máquina lo hace por ti.
Pero imaginemos por un momento que son herramientas: ¿a quién van dirigidas? Los verdaderos consumidores objetivo de estas IAs no son los creativos, sino las empresas y negocios que pueden utilizarlos para reducir costes laborales. La pretensión de las empresas que ofrecen servicios de IA no es ayudar a los artistas, sino ofrecer un servicio al que puedan recurrir otras empresas en lugar de a los artistas (basta con ver los talleres de cualquier convención de emprendedores para hacerse una idea).
► Entonces, ¿qué hacemos? ¿Podemos volver atrás?
Trabajamos para hacer valer nuestros derechos. Como EGAIR, trabajamos en Europa para obtener normas de transparencia para las empresas de IA que permitan a cualquier persona comprobar si se han vulnerado sus derechos y, en caso necesario, emprender acciones contra las empresas de IA. También hemos empezado ya a actuar ante las Autoridades de Protección de Datos, presentando varias denuncias por vulneración de la privacidad. También existen herramientas para reestablecer una situación de legitimidad. La Comisión Federal de Comercio estadounidense puede ordenar (y ha ordenado en el pasado) el uso del Algorithmic Disgorgement, es decir, la destrucción de algoritmos IA entrenados ilícitamente y su prohibición en cualquier sistema operativo. Es una medida extrema, pensada como un martillo contra la apropiación indebida de datos. Precisamente en los últimos meses, la Comisión Federal de Comercio ha empezado a interesarse por la IA generativa y a organizar reuniones al respecto.
► Creo que deberíamos esperar la liberación de estas máquinas de las empresas, que deberían hacerse públicas y que los derechos de autor deberían abandonarse progresivamente en favor de un régimen copyleft.
Es legítimo y puede ser una noble aspiración. Sin embargo, estamos en el mundo de la especulación filosófica, mientras que la situación en el mundo real es radicalmente distinta. Estos servicios están en manos de empresas encabezadas por Meta, Google, Microsoft, Amazon y LinkedIn y no tienen intención de dejarlos escapar. Los gobiernos y las instituciones están regulando principalmente con el objetivo de apoyar el florecimiento del sector privado de la IA, y hay países que presionan para mantener la ausencia de regulaciones para la IA. Mientras debatimos sobre la liberación de las máquinas y la superación de los problemas con los derechos de autor, las máquinas entrenadas para infringir los derechos de autor están erosionando el mercado laboral de artistas y creativos, categorías que ya son vulnerables y se encuentran cada vez con menos opciones.
No podemos pensar en superar el capitalismo sobre los hombros de los creativos. Nos parece más que legítimo luchar para exigir que no se permita a las empresas capitalistas hacer lo que quieran con nuestros datos.

Apoya a EGAIR
FIRMA EL MANIFIESTO
COMPARTE EL MANIFIESTO
AYÚDANOS A PROTEGER NUESTRO TRABAJO Y NUESTROS DATOS DE LAS EMPRESAS DE IA
• Texto original, redactado por EGAIR (European Guild for AI Regulation)
• Traducción al español: Nia Soler, ilustradora, artista visual y escritora. Representante del colectivo Arte es Ética en España.
• Diseño y maquetación web: Naida Jazmin Ochoa, diseñadora gráfica, ilustradora. Coordinadora del colectivo Arte es Ética.