Manifiesto • Arte es Ética

en defensa de los DDHH frente a la IA generativa


Publicado originalmente el 5 de abril de 2023 / Última actualización: 30 de octubre de 2025

Recordatorio importante: NO PONGAN DINERO EN CHANGE ORG. En su momento analizamos muchas opciones antes de lanzar el Manifiesto y ver la mejor forma de compartirlo y hacer el mayor ruido posible para que se le preste atención. Nos ayudan muchísimo compartiéndolo y firmando. Nada más. ¡Gracias! 

El desarrollo de la actual IA generativa comercial está basado en la ilegalidad

El 2022 se sobrepuso al covid-19, pero trajo consigo otro tipo de viralidad en expansión que afecta a miles de personas y a la economía del mundo: la llamada Inteligencia Artificial (IA) generativa, una tecnología a la que todos estamos expuestos, además de presionados a aceptar y normalizar su uso, muchas veces de manera involuntaria, por estar constantemente sometidos a un discurso publicitario que trata de convencernos de que su uso es inevitable e incluso, deseable.

La Inteligencia Artificial Generativa es un campo dentro de la IA, centrado en la producción automática de datos, textos, imágenes y otros contenidos, a partir de la introducción de un breve comando de texto (prompt) que indique al software qué generar y de qué forma. Es importante referirnos a los resultados de la IA generativa como eso, como resultados o productos extraídos de procesos creativos humanos con los cuales se entrena para generar derivaciones automatizadas, por eso no se trata de creaciones o de obras, términos que son propios de una actividad humana sujeta a las leyes del derecho de autor.

Dentro de las aplicaciones de IA generativa que producen texto, la más promocionada es ChatGPT, desarrollada al igual que Dall-E por OpenAI, que genera texto imitando el lenguaje natural, a través de modelos matemático-predictivos basados en miles de millones de fuentes, pero omitiéndolas en el texto producido. Su versión GPT4 genera también código de programación web, imágenes, video y se perfila como el sustituto integral de diversos tipos de tareas profesionales. 

Los modelos generativos de voz que se han desarrollado de modo anti-ético (Speechelo, Revoicer, Voicely, Speechify, entre otros) se promocionan con slogans como: «¡Nunca más gastes en locuciones!». Con Studio D-ID, Uberduck y Riffusion los usuarios pueden introducir archivos de audio indiscriminadamente para generar imitaciones artificiales de voces (audio-to-audio). Este procedimiento no sólo expone a personas a la suplantación de su identidad, sino que además permite la apropiación del registro sonoro de cantantes destacados, generando audios que suenen exactamente iguales a éstos o con mínimos cambios de timbre, por ejemplo, tras los que disimular su replicación y hacer un uso comercial del talento emulado. En el rubro actoral, estamos en conocimiento de que varias figuras del llamado star system -quizás por encontrarse cerca de la edad de retiro- han cedido voluntariamente el uso de registros filmográficos previos y se han prestado a escaneos de fotogrametría para generar con este material derivados artificiales de su figura a cambio de sumas cuantiosas. Pero también son conocidos los miles de deepfakes de actores famosos, como Keanu Reeves, quien ya incluye en sus contratos cláusulas que prohíben estas prácticas

Todos los servicios comerciales de IA generativa en la actualidad, con independencia de si generan texto, imágenes, audio o video, han sido entrenados con material protegido por derechos de autor, sin el consentimiento de los autores. Estos programas no sólo han vulnerado la Ley de Propiedad Intelectual, sino también la Ley de Protección de Datos, ya que el raspaje indiscriminado de datos recogidos de internet, además de obras creativas, incluye material sensible como informes médicos, datos biométricos y otros datos privados de millones de ciudadanos, además de abundante pornografía.

El data mining o data scraping, es la técnica de toma de millones de datos de internet que los gobiernos permiten hacer, con fines investigativos, a algunas entidades. Universidades o grandes laboratorios abocados a la investigación, por ejemplo, en el área de salud mental o física, realizan estas actividades, pero están obligados a anonimizar los datos en el procesamiento de la información extraída. Esta modalidad de trabajo es clave y obligatoria: mantener en el anonimato la identidad de cuyas personas se tomaron datos sensibles, es un requerimiento esencial para no dañar las posibilidades de éstas de conseguir un trabajo o una prestación de salud, por ejemplo. 

Sin embargo, Stable Diffusion y sus programadores han hecho públicos decenas de catálogos con los nombres de artistas (cualquiera puede encontrarlos en internet), con la premisa de que su «emulación» técnica es posible gracias a la tecnología que promueven y la aplicación que le dan.

Varios de estos modelos de IA generativa se promocionan y operan usando los nombres de los artistas expoliados y los usan como parte de los comandos de textos con que indicarle al software que use el aprendizaje maquínico de sus obras en la generación de outputs. Esto constituye otra instancia violatoria: la usurpación de identidad de los artistas y de los derechos morales y patrimoniales que les corresponden. 

Las generaciones audiovisuales son posibles por intermedio de una masiva violación de derechos de las personas por parte de empresas desarrolladoras de algoritmos de aprendizaje automático o IA generativas, que atentan por principio contra el punto 2 del artículo 27 de la Declaración Universal de los Derechos Humanos.

Lo que sigue, es la secuencia de hechos lesivos de la sociedad en su conjunto, sobre el derecho a la preservación de la identidad, el derecho a la propiedad intelectual, a la sana competencia laboral, lo que genera un expolio del valor creado por personas y la exclusión masiva de sus puestos laborales por la automatización acelerada de procesos creativos.

Lo descrito en el punto dos (2) del artículo 27 refiere directamente a los derechos de propiedad intelectual de todas las personas.

Pero lo absurdo del nuevo escenario de expoliación privatista radica en que los propios artistas sean excluidos del proceso creativo por los desarrolladores de una tecnología que entrena sustitutos artificiales, violando los derechos morales y materiales de las personas creativas de todo el mundo.

Las autorías se encuentran hoy en una total indefensión frente al plagio automatizado, ya que todo aquello que sea puesto en circulación en internet por sus autores o cualquier otra persona, es susceptible de ser capturado y subsumido como base de datos de entrenamiento para nuevas versiones de IA generativas: una tecnología que es instrumento para el robo encubierto y la sustitución de los trabajadores.

Si como miembros activos de la sociedad no hacemos valer nuestros derechos a través de las instituciones gubernamentales, se seguirá agravando este escenario en que el desvalor de lo «remixado» por máquinas se impone por sobre el valor original de lo creado por personas.

Creemos, es urgente la unión organizada de creativos de todas las disciplinas audiovisuales para elaborar una serie de reglas éticas que garanticen la sana continuidad del oficio creativo, se desarticule el carácter parasitario de esta nueva industria reponiendo el estado de derecho de las personas y fortaleciendo los marcos regulatorios sobre el rastrillaje de datos, para evitar que se desarrollen nuevos modelos de IA que compitan de manera desleal, sin compensar de manera adecuada a sus legítimos autores o creadores.

Para lograr todo esto nace Arte es Ética, un colectivo sin fines de lucro integrado por profesionales creativos y artistas visuales independientes (ilustradores, diseñadores, fotógrafos, animadores, pintores, entre otros) creado con el principal objetivo de informar sobre cómo afecta la IA generativa a todos los sectores creativos y acercar esta información a los representantes políticos de los diferentes países de habla hispana, para que establezcan normativas que protejan a las personas de las prácticas abusivas de las corporaciones tecnológicas.

Siguiendo este objetivo, hemos intervenido, asesorado y colaborado activamente en diferentes iniciativas en España, Argentina, Uruguay, Chile, Brasil, Colombia, México, Estados Unidos, Canadá, Reino Unido, Alemania y Japón.

Creemos que es urgente la unión organizada de creativos de todas las disciplinas audiovisuales para elaborar una serie de reglas éticas que garanticen la sana continuidad del oficio creativo, se desarticule el carácter parasitario de esta nueva industria reponiendo el estado de derecho de las personas y que se fortalezcan los marcos regulatorios sobre el rastrillaje de datos, para evitar que se desarrollen nuevos modelos de IA generativa que compitan de manera desleal, sin compensar de manera adecuada a sus legítimos autores o creadores.

Priorizar la defensa de los derechos fundamentales de todas las personas frente a la «innovación» tecnológica. 

La Suprema Corte de Justicia de México aclaró que, si bien el derecho a beneficiarse del desarrollo científico y tecnológico está contemplado en el artículo 3° de la Constitución, este no puede entenderse de forma que comprometa otros derechos fundamentales, como el de la protección de la autoría. En otras palabras, el progreso tecnológico no debe erosionar los derechos ya reconocidos para las creaciones humanas.

Los derechos fundamentales deben anteponerse a los intereses económicos y geopolíticos.

Exigir que se respeten las leyes vigentes de autoría, de protección de datos, de privacidad, de competencia desleal, etc.

No hace falta esperar a tener una ley que regularice a la IA generativa. Existen leyes vigentes que han sido vulneradas y solo con señalar que todos estos sistemas de IAG las incumplen, debería bastar para anular cualquier tipo de iniciativa de implementación de estas aplicaciones de IA generativa.

Destrucción de los conjuntos de datos (datasets) infractores que alimentan a los actuales modelos comerciales de IA generativa. 

La única manera de resolver una parte de esta problemática es eliminar los datasets existentes y crear unos nuevos que no violen leyes y cuenten con el consentimiento explícito de los autores.

Empezar DESDE CERO pidiendo permiso, acreditando y remunerando a quien diera su consentimiento. El opt-IN debe ser la base si es que quieren desarrollar modelos éticos de IA generativa.

La mayoría de las veces el debate se centra en la remuneración y se ignora con frecuencia que una gran cantidad de autores no desean formar parte de la industria de la IA generativa.

Prohibición de los actuales servicios comerciales de IA generativa. 

‎• Prohibir el uso y promoción de aquellas aplicaciones cuyas empresas desarrolladoras estén bajo procesos judiciales por infracción a los derechos de autor. Ver demanda colectiva de los artistas en EE.UU., con avance a fase Discovery.

StabilityAI (Stable Diffusion),
DeviantArt (DreamUp),
Midjourney,
RunwayAI,
Google (Image)

‎• Prohibir el uso y promoción de aquellas aplicaciones y/o plataformas que integren o basen su desarrollo en Stable Diffusion. Ejemplo: CANVA, LeonardoAI.

‎• Prohibir el uso y promoción de aquellas aplicaciones de IA generativa cuyos outputs constituyan una evidencia en sí misma de la infracción al copyright, aunque aún no integren una demanda específica contra ellos. Ejemplo: DALL-E, Freepik, Flux. ( Ver este paper: https://spectrum.ieee.org/midjourney-copyright )

‎• Prohibir el uso y promoción de toda aplicación de IA o IA generativa cuyas empresas estén afrontando algún proceso judicial por infracción a los derechos de autor. A nivel global se acumulan más de 44 demandas contra estas empresas: Ross Intelligence Inc, Github, Microsoft, OpenAI, META, Anthropic, Nvidia, Udio, Suno, ElevenLabs, Perplexity AI, entre otras.

Fig. 1: Who’s Suing Who? Source: Wired

Prohibición de registro, en las oficinas de Derechos de Autor, de cualquier contenido realizado por IA generativa. 

Ningún resultado o producto generado, sea completa o parcialmente, por inteligencia artificial generativa podrá ser objeto de protección ni dispondrá de derechos creativos de conformidad con la Ley de Propiedad Intelectual. No existe la obra “asistida” por IA generativa debido a que lo producido por la misma es un uso irregular de trabajos ajenos al propio programa, app o derivado, ya que esto es iniciado o “apoyado” con material robado. Ningún derivado o modificación debería ser susceptible de derechos de autoría al estar “construido” sobre un terreno usurpado ilegalmente a dueños legítimos.

Indemnizaciones acordes al daño causado por el robo masivo de obras protegidas ya perpetrado, y que continúa su curso, para todas las autoras y autores involucrados.

Teniendo en cuenta que el raspaje de datos ha sido infinito, la indemnización debería ser masiva y global. Ante la insistencia de plantear esquemas de licenciamiento para sistemas de IAG, repetimos: las licencias no son una medida orientada a remunerar a los autores de manera suficiente y proporcional, sino un medio de apariencia legal que facilita que las compañías desarrolladoras de IA generativa puedan seguir creciendo y enriqueciéndose a cambio de precarizar, aún más a los profesionales creativos y cuya finalidad última es sin lugar a duda prescindir de ellosNo queremos formar parte de la industria de la IA generativa y no hay licencia que compense todos los perjuicios que esta tecnología ha ocasionado a la comunidad artística y que, sin duda, ocasionará también a la cultura. 

Campaña de concienciación del impacto de la implementación de la IA generativa en el sistema educativo.

Es especialmente preocupante que se enseñe a “promptear” a menores que todavía están desarrollando sus habilidades. Esta tecnología no aumenta la creatividad, en cambio, sí puede causar un deterioro cognitivo a medio y largo plazo y fomentar una nueva dependencia tecnológica. Además, también alimenta el desinterés temprano por el aprendizaje artístico/creativo, lo que producirá un descenso considerable de alumnos en las diversas disciplinas artísticas. 

Retirada de asignaturas y cursos/módulos de formación en IA generativa en universidades públicas y escuelas de arte y diseño 

Por lo obvio: estos sistemas de IA generativa violan el RGPD y la LPI, además de lo mencionado anteriormente. Su enseñanza pinta un escenario para las profesiones artísticas/creativas de pérdida de derechos y de precariedad laboral que contraviene las disposiciones planteadas por los Ministerios de Cultura y Educación.

Retirada de subvenciones y cualquier tipo de financiación mediante dinero público a editoriales, empresas, agencias, etc, que usen IA generativa

Cualquier apoyo o colaboración de los ministerios o instituciones públicas, hacia la implementación de la IA generativa en el sector cultural, supone la legitimación de una tecnología que funciona de manera ilícita porque vulnera la Ley de Privacidad y de Protección de Datos y la Ley de Propiedad Intelectual.

Exigir transparencia en el desarrollo de los sistemas de IA e IAG.

Cada empresa desarrolladora de IA generativa deberá informar con qué datos fueron entrenados y PRE-entrenados sus modelos y plataformas de IA. Esto es imprescindible para que los autores tengan recursos para hacer los litigios legales que correspondan.

Ejemplos: Freepik, de España, intenta posicionarse como una alternativa a los modelos de Silicon Valley y sin embargo su plataforma funciona a partir de modelos como FLUX (de los creadores de Stable Diffusion) y se sospecha que también usan Midjourney debido a los resultados que arroja su IAG.

ALIA, el conjunto de modelos fundacionales de IA de España, también fue promocionado como un modelo de IA hispano que iba por fuera del monopolio de USA y sin embargo ALIA se desarrolló sobre la base de LLAMA, uno de los modelos de META que a su vez se demostró que fue entrenado con librerías de contenidos pirateados.

Si se busca implementar IA en el sector cultural, sólo podrían ser sistemas de IA (a secas) que operen como aplicaciones de asistencia en determinados softwares, y garantizando que no vulneran ninguna ley y ningún derecho. Por ejemplo: para pulir pistas de audio quitando el ruido ambiente; para mejorar la nitidez de una imagen pixelada. Se podría pensar en armar datasets (desde cero) muy acotados, de paletas cromáticas, tipografías, composiciones visuales como esquemas de base, bancos de ritmos musicales, etc. Se puede pensar en este tipo de usos de IA para ahorrar tiempo en determinadas instancias de una producción audiovisual. Algo que ya existe y se venía usando en muchas de las grandes producciones audiovisuales.

Lo que hay que evitar es que se mezcle con alguna IA generativa comercial. Por eso también es importante ser muy rigurosos con la terminología y siempre hacer la distinción entre Inteligencia Artificial (IA, a secas) e IA generativa.


A futuro, pensando en el desarrollo de nuevos modelos de IA generativa

Las medidas regulatorias que proponemos acompañan y complementan las que nuestros compañeros de EGAIR (European Guild for AI Regulation) aportaron como enmienda al texto provisional de la Ley IA propuesta por el Parlamento Europeo, las cuales fueron aprobadas por el mismo durante el examen de la Propuesta de Reglamento en el que participó EGAIR en representación de la comunidad artística.

Esta primera enmienda introducía nuevas obligaciones para los proveedores de los modelos de base utilizados por los sistemas de IAgenerativa, recogidas en el nuevo artículo 28bis de la Ley de Inteligencia Artificial, que fueron las siguientes:

● Respetar las obligaciones de transparencia;
● Asegurar las garantías necesarias contra la generación de contenidos que infrinjan el Derecho de la Unión Europea;
● Documentar y poner a disposición del público un resumen suficientemente detallado del uso de datos de entrenamiento protegidos por derechos de autor.

Aunque estas obligaciones aprobadas son importantes y necesarias, creemos que son insuficientes para garantizar una protección efectiva del trabajo de los artistas y creativos, por lo que realizamos una nueva propuesta de enmienda, ampliando estas obligaciones que consideramos que, como mínimo, debe contemplar la Ley.

Opt-IN (inclusión voluntaria) como método obligatorio.

Las compañías tecnológicas desarrolladoras de servicios de IA generativa deberán obtener el consentimiento explícito de los autores antes de que sus obras (imagen, audio, texto o video) puedan ser recopiladas, procesadas o utilizadas como material para el entrenamiento de modelos generativos de IA, como así también en procesos generativos de image-to-image, audio-to-audio, etc, que realizan los usuarios de la tecnología.

La base legal y de sentido común que venimos reclamando desde el inicio de esta problemática con la IA generativa es el opt-IN, es decir, el consentimiento del autor antes de usar su obra y su nombre como data para entrenamiento. La metodología de que cada persona opte por sacar (opt-out) sus obras de los datasets de entrenamiento, no es un método válido para resguardarse de las generaciones artificiales de las mismas. Primero, porque los autores podrían no estar anoticiados de esa situación. Segundo, porque una vez que el modelo de IAG aprende un dato no puede “desaprenderlo” y no hay garantía de que no sea utilizado en generaciones siguientes. Y tercero, porque las compañías usan de excusa que deben verificar que quien solicita esa remoción es efectivamente el dueño o autor de esas obras, para no acceder a ajustarse a derecho.

 ‎• Para garantizar esto último, es indispensable el desarrollo de un algoritmo de detección que filtre las imágenes, textos, videos y audios que sean subidos a las plataformas generativas de IA en los procesos de image -to-image, audio-to-audio, etc, corroborando que pertenezcan sólo a personas que hayan declarado estar de acuerdo con que su obra forme parte de procesos derivativos por IAG.

‎• Instar a que las plataformas generativas por IA anulen para sus usuarios la funcionalidad de comandar nombres propios de quienes no consintieron en formar parte del dataset y menos aún, de la generación de derivados automatizados de su obra. Habría que anular también el uso de categorías de movimientos estéticos contemporáneos que pudieran contenerlos. Por ejemplo: la categoría eroguro contiene la obra de Junji Ito, Toshio Saeki o Yu Satomi; la categoría línea clara, contiene la obra de Moebius, Hergé y otros. De esta forma podrían evitarse parcialmente los usos parasitarios de la obra de los autores que quieran permanecer fuera de estas plataformas.

‎• Exigir por ley que las imágenes producidas con modelos de IA generativa lleven una marca de agua de la plataforma que la generó, además de una “firma digital” en los metadatos del archivo generado (output), donde conste la información del usuario que lo comandó, qué comandos de textos se usaron en su procesamiento, además de cuantificar el porcentaje de proceso automatizado cuando el mismo supere el 25% del proceso total. Toda esta información está en poder de las plataformas y debe transparentarse. Para establecer el porcentaje de procesamiento automático en el modo image-to-image, un algoritmo debe monitorear los uploads (re-inputs) del usuario y cotejar la diferencia entre éstos y el output arrojado antes por la IAG. En función de los porcentajes diferenciales de pixels entre outputs y re-inputs, el algoritmo asigna un porcentaje total de interacción humana al proceso. Dependiendo del porcentaje de interacción humana, esa imagen puede o no ser objeto de derechos de autor.

‎• Apelar a la OMPI (Organización Mundial de la Propiedad Intelectual) para solicitar su urgente intervención y arbitraje en los conflictos con las empresas que basen sus datasets de entrenamiento en obras protegidas por copyright sin el consentimiento de las personas que las crearon o que figuran en ellas. Esto es menester del organismo y cuenta con recursos de ONU para operar en casi todos los países con instrumentos legales de autoridad. 

‎• Hasta contar con información fehaciente de cuál es el grado de proceso humano implicado en cada output realizado con IA generativa, se veda la indexación de los outputs de IA en los Registros de Propiedad Intelectual o Copyright de cada país, para evitar el registro de obras generadas por IAG, y no por personas que son legítimos sujetos de derecho.

‎• La empresa que base su crecimiento en el uso de IA generativa obligando a sus trabajadores a entrenar algoritmos que habiliten su sustitución como empleados o que incurran en despidos masivos de sus creativos, perderá el beneficio de cualquier exención impositiva o se le adicionará un impuesto especial, cuyos beneficiarios serán freelancers o trabajadores autónomos dedicados al ámbito creativo.

‎• Impulsar la creación de un fondo estatal para cubrir las necesidades más urgentes del sector creativo, especialmente castigado por la crisis. Este fondo estaría destinado al desarrollo de proyectos artísticos y la creación de empleos que incluyan mano de obra e inteligencia humana.

‎• Promover la inclusión de esta lista de buenas prácticas dentro de las guías y manuales de las empresas inversionistas, inversores de capitales de riesgo como Black Rock y otras. El respeto al copyright y derechos de propiedad intelectual, así como la protección de datos personales, debe sumarse como una práctica exigible así como lo son el uso responsable de energías renovables, las cuotas de género y diversidades dentro del plantel de una empresa, el seguimiento y reducción de la huella de carbono, el uso de procesos orgánicos para la producción de alimentos o las calificaciones de “fair trade” para importaciones de productos desde el llamado “tercer mundo”. De este modo las productoras, agencias y plataformas que usen tecnología IA generativa, sin atención a las exigencias aquí presentes, verán reducidas sus calificaciones y por lo tanto su cotización y capitalización, como ya sucede con otro tipo de exigencias de buenas prácticas.

‎• Instar a los gobiernos a no crear nuevas excepciones a los derechos de autoría o derechos conexos u otras exenciones a la Propiedad Intelectual que permitan realizar nuevos raspajes de datos por crawlers o desarrolladores de IAG. Éstos deben cumplir con los principios básicos de competencia y compensación justas en el mercado. La creación de atajos especiales o lagunas legales para la IA generativa dañaría a los empleos basados en actividades creativas, dañaría las marcas de los creadores y limitaría los incentivos para crear e invertir en nuevas obras.

Recordatorio importante: NO PONGAN DINERO EN CHANGE ORG. En su momento analizamos muchas opciones antes de lanzar el Manifiesto y ver la mejor forma de compartirlo y hacer el mayor ruido posible para que se le preste atención. Nos ayudan muchísimo compartiéndolo y firmando. Nada más. ¡Gracias! 🙏