Desde el Colectivo Arte es Ética, Artivismo y Autorías de Habla Hispana, hemos decidido sumar nuestro apoyo a EGAIR (European Guild for Artificial Intelligence Regulation) porque operan siguiendo la misma perspectiva crítica que nosotros. Les compartimos un resumen de su manifiesto y renovamos nuestro compromiso con la causa regulatoria sobre la IA generativa.

EGAIR es un grupo de artistas, creativos, editores y asociaciones de toda Europa unidos para llamar la atención sobre cómo se explotan nuestros datos y propiedades intelectuales sin nuestro consentimiento, a una escala nunca antes vista. Esta situación sin precedentes los ha llevado a unir fuerzas con instituciones europeas y hacer que se escuchen sus voces.
El año 2022 ha visto el surgimiento de una tecnología nueva: IA texto-a-imagen (TTI) o imagen-a-imagen (ITI). Cada vez que surge una tecnología innovadora, la sociedad tiene que supervisar su despliegue para evitar cualquier daño o violación de los derechos humanos. Esto aún no ha sucedido con la tecnología de IA. Estas formas de inteligencia artificial pueden generar imágenes u otros contenidos a partir de mensajes de texto u otros medios proporcionados por el usuario. Pero para hacerlo, una IA debe entrenarse en un conjunto de datos.
Con respecto a las IAs generadoras de imágenes, cuantas más imágenes incorpore a su entrenamiento, más estilos podrá replicar y más cosas podrá hacer. Los productos que venden las empresas de IA son resultado de operaciones matemáticas sobre conjuntos de datos, que contienen todo tipo de imágenes, incluidas millones protegidas por derechos de autor, imágenes privadas y otro material confidencial. Estos archivos se recopilaron raspando Internet indiscriminadamente, sin el consentimiento de los propietarios y las personas representadas en ellos y actualmente las empresas de inteligencia artificial los utilizan con fines de lucro.
Esto es sólo el comienzo de una crisis que afectará a todo tipo de trabajos y ocupaciones, ya sean trabajos creativos o no. El campo creativo es el primero en verse afectado sólo por sus vulnerabilidades estructurales, que lo convierten en una presa fácil. Es hora de cambiar esto.

Estos son los puntos clave que queremos hacer cumplir para regular a la IAG:
1.- Los datos relacionados con personas u obras, en cualquier forma, ya sean datos digitales -como archivos de texto, audios, videos o imágenes- o capturados de la realidad por cámaras, micrófonos o cualquier otro medio de registro, no se utilizarán para entrenar modelo de IA sin el consentimiento explícito e informado de su propietario. Pedimos una extensión a las IA de los principios de protección de datos personales previamente introducidos por el RGPD y la introducción de una nueva forma de protección específica para este tipo de explotación: el “derecho de formación”.2.- Queda prohibido el uso de nombres de personas, nombres artísticos o títulos de obras no amparadas por una licencia de explotación para el entrenamiento de IA para aquellos software que permitan el uso de indicaciones textuales o vocales para generar imágenes, videos, textos o audio.
3.- Queda prohibido el uso de videos, imágenes, audios y textos no cubiertos por una licencia de explotación para el entrenamiento de IA para aquellos software que permitan la carga de contenidos multimedia para generar una imagen, un video, un texto o un audio.
4.- Se establecerá un sistema de indexación y certificación “legible por humanos y máquinas”, que informe todas las actividades de las IA y el contenido completo de sus conjuntos de datos de imágenes, textos, videos y sonidos, ya sea que se reproduzcan total o parcialmente. Los subtítulos como “completamente hecho por IA”, “hecho con material generado por IA” deberían convertirse en el estándar.
5.- La distinción entre “material protegido por derechos de autor” y “dominio público” ya no es adecuada para identificar qué se puede y qué no se puede usar para los conjuntos de datos. Los conjuntos de datos de aprendizaje contienen datos personales confidenciales, protegidos por las leyes de privacidad, pero no por los derechos de autor. Podemos encontrar ejemplos de material publicado cuando no hubiera sido posible prever su uso en un conjunto de datos para entrenar un modelo de IA.
Cualquier dato utilizado en el entrenamiento de un modelo debe ser curado y autorizado por su propietario legítimo e insertado voluntariamente en el conjunto de datos por su autor con pleno conocimiento de ello, las empresas de AI deberán producir internamente materiales originales para la capacitación o licenciar material externo siguiendo términos y contratos previamente establecidos con los autores o legítimos titulares de dicho material.
• Diseño y maquetación: Naida Jazmin Ochoa, diseñadora gráfica, ilustradora. Coordinadora del colectivo Arte es Ética.