A principios de año, Adobe lanzó una versión de prueba de Firefly, servicio que, según afirma la compañía, se creó con datos de imagen legalmente seguros.
Artículo escrito por Luz Castro, para Arte es Ética

El logo de Adobe Firefly es propiedad de ADOBE Copyright © 2023 Adobe. All rights reserved.
Fotografía de John Hart/Wisconsin State Journal, via AP.
En su sitio web Adobe define a Firefly como “la nueva familia de modelos creativos de IA generativa que llegará a los productos de Adobe, enfocada inicialmente en la generación de efectos en imágenes y textos. Firefly ofrecerá nuevas maneras de idear, crear y comunicar, al tiempo que mejorará significativamente los flujos de trabajo creativo. Es la extensión natural de la tecnología que Adobe ha desarrollado durante los últimos 40 años, impulsada por la creencia de que las personas deberían tener la capacidad de mostrar sus ideas al mundo exactamente como las imaginan.”
Según informan los sitios web venturebeat.com y The Verge, desde su lanzamiento en marzo, los usuarios de la versión beta de Firefly han generado más de 200 millones de imágenes utilizando las nuevas herramientas y funciones disponibles, tales como la conversión de texto en imagen, el relleno generativo y la ampliación de la imagen. Los usuarios de Photoshop generaron más de 150 millones de imágenes en sólo las dos primeras semanas utilizando la nueva función de relleno generativo de Firefly.
Para quienes venimos siguiendo los procedimientos mediante los cuales las empresas están desarrollando las nuevas tecnologías de generación de texto e imagen, esto nos resulta muy familiar: una empresa libera una versión beta en internet, grandes cantidades de usuarios alrededor del mundo “prueban” la tecnología entrenándola, y luego la empresa comercializa las versiones de pago.
¿Qué es lo que diferencia el proceder de Adobe con respecto a otras empresas que desarrollan tecnología generativa, tales como Midjourney o Dall-e?
Adobe parte desde el inicio instalando en la comunidad la idea de que Firefly es una “IA ética”.
El principal argumento para esa afirmación, tal como la sostienen los directivos de la empresa, es que el modelo se ha entrenado con cientos de millones de imágenes con licencia de la oferta gratuita de Adobe Stock, a los cuales Adobe tiene acceso exclusivo, así como también con “contenidos con licencia abierta y otros contenidos de dominio público sin restricciones de derechos de autor”. Eso sería lo que la diferencia de otras herramientas de uso similar, tales como Midjourney o Dall-e. Adicionalmente, su interfaz permite utilizar Firefly mediante Photoshop, Illustrator y otras herramientas de propósito comercial de Adobe.
A principios de junio, la empresa dio un paso más en su esfuerzo por instalar confianza en los entornos empresariales, haciendo declaraciones con respecto a que las empresas que usen Firefly serán respaldadas por Adobe: según reportó Reuters el 8 de junio pasado, esa política se materializaría en forma de indemnizaciones, si bien no se brindaron detalles del fondo destinado para implementarla ni los detalles de su concreción. “Si un cliente es demandado por infracción, Adobe se haría cargo de la defensa legal y proporcionaría cierta cobertura monetaria para esas demandas”, dijo un portavoz a la prensa. Mediante esta maniobra se busca aplacar los temores en torno a que, tal como ocurre con Midjourney o Dall-e, existan demandas de artistas reclamando propiedad intelectual.
La apariencia de viabilidad comercial garantizada, sumada a los resultados de gran calidad que proporciona Firefly, hacen que aparezca como una oferta atractiva para las empresas que deseen emplear inteligencia artificial generativa.
Sin perdón ni permiso: el punto de vista de los creativos que contribuyen a Adobe Stock
Pese a las afirmaciones anteriormente citadas, quienes contribuyen con su trabajo artístico a Adobe Stock se mostraron descontentos con el uso que la empresa hizo de sus imágenes. Durante las últimas semanas de junio, algunos de ellos se expresaron a los medios especializados indicando que Adobe entrenó Firefly con sus imágenes de stock sin notificación expresa ni consentimiento.
“Aunque se trata sin duda de un problema para otras herramientas generativas de texto a imagen como DALL-E 2, Stable Diffusion y Midjourney (que se entrenaron a partir de fragmentos de imágenes publicadas en la web, incluidas imágenes protegidas por derechos de autor), esto es particularmente atroz para una empresa como Adobe, que ha estado profundamente entrelazada con la economía creativa durante décadas,” señalaron a Venturebeat.com.
Los creativos perciben que la popularidad de Firefly está haciendo mucho menos probable que los usuarios compren imágenes de stock. “Una avalancha de imágenes generadas por IA en Adobe Stock está canibalizando la plataforma”, sostienen.
Según PetaPixel y el blog especializado Stockperformer, Adobe Stock es actualmente el único sitio web de stock importante que acepta el envío de imágenes de IA por parte de los colaboradores -incluidas las generadas con herramientas que no sean Firefly- y las imágenes con este origen están superando a los archivos generados por humanos en el sitio en muchas métricas.
Desde el punto de vista financiero, las acciones de Adobe han subido de manera sostenida desde el lanzamiento de Firefly. La política de generar confianza en el mercado ha redundado en un incremento de casi el 46% en el valor de las mismas, pero no puede decirse lo mismo de la confianza que tienen los colaboradores de Adobe Stock.
Uno de ellos es Dean Samed, quien reside en el Reino Unido y se dedica a la edición de imágenes con Photoshop y al arte digital. En declaraciones a VentureBeat a través de Zoom, señaló que lleva utilizando productos de Adobe desde que tenía 14 años y ha contribuido con más de 2.000 imágenes a Adobe Stock.
“Están utilizando nuestra propiedad intelectual para crear contenidos que compitan con nosotros en el mercado”, afirmó. “Aunque legalmente puedan hacerlo, porque todos firmamos las condiciones del servicio, no me parece ni ético ni justo”. Él y otros trabajadores del rubro se sienten traicionados por una empresa a la que han ayudado a crear su biblioteca de stock, y afirman no haberse sentido cuidados, al no haber sido notificados de manera fehaciente del nuevo uso que tendría su trabajo.
Otros creativos, como Eric Urquhart o el fotógrafo Rob Dobi, acuerdan con la idea de que ningún usuario antiguo de Adobe podría haber previsto el escenario actual, y ponen en duda continuar empleando la plataforma para añadir nuevos trabajos. Afirman que, aunque Adobe no haya hecho nada ilegal y esté en su derecho, lo ético habría sido informar previamente a los artistas de Adobe Stock sobre el entrenamiento de la IA de Firefly y ofrecerles una opción de exclusión desde el principio.
No obstante, Adobe no parece hacer una distinción tan fina entre “lo ético” y “la letra escrita”: en sus “Términos y Condiciones” efectivos a partir de septiembre de 2022, señala que la empresa puede introducir cambios en los mismos, que se pondrán de manifiesto en el cambio de la fecha que figura en la parte superior de esa sección del apartado correspondiente en la sección Legal de su sitio web y “podrían” notificarse de manera adicional. Enfatiza la obligación del usuario de revisar esos Términos y Condiciones con regularidad, ya que continuar utilizando los servicios cuenta como una aceptación de los mismos.
En el acuerdo específico con los Colaboradores de Adobe Stock, fechado el 1ero de marzo de 2022, y que entró en vigor a partir de abril de ese año, se leía lo siguiente: “Usted nos concede una licencia no exclusiva, mundial, perpetua, totalmente pagada y libre de regalías para usar, reproducir, mostrar públicamente, ejecutar públicamente, distribuir, indexar, traducir y modificar el Trabajo con el fin de operar el Sitio Web; presentar, distribuir, comercializar, promocionar y licenciar el Trabajo a los usuarios; desarrollar nuevas funciones y servicios; archivar el Trabajo; y proteger el Trabajo.”
El 20 de julio del corriente año, Adobe actualizó nuevamente los Términos y Condiciones para los colaboradores de Adobe Stock que deseen subir contenidos generados con IA.
Esos términos incluyen cinco puntos clave que detallan las obligaciones que tiene el usuario que envíe contenido desarrollado utilizando tecnología generativa:
1.- Obligación de disponer de los derechos para el contenido habiendo revisado los términos y condiciones de la tecnología utilizada;
2.- Etiquetar el contenido como producto de IA generativa
3.- Proceder escrupulosamente con el tipo de contenido, denominación y palabras clave;
4.- Distinguir claramente si considera ese contenido como fotografía o ilustración;
5.- Tener consentimiento del modelo si es una imagen de una persona reconocible y priorizar la calidad.
Cada punto detalla cosas que el usuario debe hacer o abstenerse de hacer, en un esfuerzo por promover una conducta responsable en la subida de contenidos.
El análisis detallado de esta información podría dar lugar a distintos interrogantes y especulaciones, como por ejemplo: en qué grado puede acreditarse el derecho de una imagen producida con tecnología entrenada con el trabajo de otros colaboradores, cómo medir la diferencia entre “el trabajo usado para entrenar” y el producto que sube el usuario, qué ocurre con las imágenes que se parezcan mucho a una persona pero no exista consentimiento del modelo; cuando una imagen que contenga un sujeto “no fotorrealista” deja de ser una fotografía para convertirse en ilustración si fuera derivada de fotografías.
Luz Castro
Hecha la ley, hecha la trampa…
Los expertos en materia jurídica están divididos entre aquellos que son poco optimistas con respecto a las perspectivas que tienen los creativos para defenderse y aquellos que vislumbran algunas posibles fisuras para construir nuevos amparos legales que permitan proteger al sector.
Andrés Guadamuz, experto en derecho de propiedad intelectual de la Universidad de Sussex (Reino Unido) que ha estudiado cuestiones jurídicas relacionadas con la IA generativa, afirma que el lenguaje de las condiciones de servicio de Adobe tiende a ser muy amplio. “Le das a Adobe una licencia a perpetuidad, para cualquier medio que se invente”, dijo. “La gente no lee esas condiciones”. Además, no cree que una imagen generada utilizando un modelo sea un derivado de los miles de millones de imágenes en el conjunto de datos – por lo que probablemente no infringiría los derechos de autor de un artista.
Bradford Newman, que dirige la práctica de aprendizaje automático e IA del bufete de abogados global Baker McKenzie en su oficina de Palo Alto, acordó con este punto de vista y -a pesar de destacar que no leyó el acuerdo de Adobe con sus colaboradores- deduce que el uso que Adobe hizo de las imágenes está avalado por el hecho de haber usado imágenes de Stock proporcionadas por usuarios que aceptaron esos términos, en los cuales Adobe dice tener capacidad para ese uso.
Nathaniel Bach es abogado de Manatt, Phelps and Phillips, con sede en Los Ángeles, y está especializado en derecho del espectáculo, derechos de autor y propiedad intelectual. En relación al tema que nos ocupa, señaló que, aunque no está familiarizado con la licencia de Adobe Stock, los problemas actuales forman parte de un viejo enigma en torno al uso tecnológico imprevisto, como el Blu-Ray y los DVD y el streaming.
Es decir: ¿Están los medios futuros cubiertos por contratos anteriores? “Los tribunales se han enfrentado a esta cuestión y han tomado decisiones diferentes en función de lo extendido que esté el uso y del tiempo transcurrido desde que se firmó el contrato”, explica a VentureBeat por teléfono. “Así que esto vuelve a parecer nuevo, con la IA”.
Bach subrayó que, aunque no cree necesariamente que las acciones de Adobe sean una extralimitación, simpatiza con los creadores -de hecho, trabaja mucho en representación de artistas, sobre todo en el ámbito de la música, donde, explicó, muchos están de acuerdo en que la industria debe ser cuidadosa para no arrebatarles su “alma”. “Creo que una de las cosas importantes que están ocurriendo ahora es que los artistas están alzando la voz”, afirmó.
La necesidad de nuevas regulaciones y “alfabetización jurídica” en los usuarios de plataformas.
Conclusión de Luz Castro, en representación de Arte es Ética
El desarrollo de IAS generativas, tanto bajo la cobertura legal de non profit, alegando propósitos de investigación, como el que tiene lugar utilizando términos y condiciones de significado muy amplio, deja a quienes trabajan en el campo creativo en una situación de indefensión jurídica muy difícil de revertir. Esto es cruelmente claro en el caso de los usuarios de Adobe Stock cuyo trabajo sirvió para entrenar Adobe Firefly, en tanto la aceptación de los contratos diseñados por la empresas les pone en posición de responsabilidad por lo que les ocurre.
La situación tiene visos de revictimización, siendo resultado de un cuidadoso diseño de los contratos por parte de los equipos legales de las empresas, y de la frecuente falta de conocimientos jurídicos o disponibilidad de asesoría letrada por parte de quienes trabajan en el campo creativo. Cuanto más precaria sea la situación laboral del trabajador, menos probabilidades tendrá de asesorarse para defender sus derechos o evitar incurrir en inclumplimientos que lo perjudiquen. Naturalizar esta práctica de responsabilizar exclusivamente al usuario constituye un precedente de grave asimetría que, de legitimarse, podría ser “la regla” para tomar decisiones en todo caso similar en el futuro.
Es necesaria una regulación que establezca claramente que las empresas tienen la obligación de informar activa y explícitamente a los usuarios colaboradores de todo cambio en la política de uso de sus contenidos. Asimismo es importante establecer que los mismos no podrán ser utilizados para entrenar tecnología generativa hasta que exista consentimiento explícito por parte de los usuarios colaboradores. Caso contrario, la alienación del producto del trabajo creativo y la maquinización del trabajo artístico podrían convertirse en un hecho consagrado por la jurisprudencia que valide procedimientos como el de Adobe, y esto luego podría extrapolarse a todo otro sector laboral vulnerable.
Como ciudadanos y trabajadores, el avance de la tecnología generativa nos pone cada vez más en la necesidad de leer cuidadosamente las “letras chicas” de contrato de todo producto digital que empleemos, discutirlas y abstenernos de aceptar sin una seguridad de que dichos términos y condiciones no están implicando cesión de derechos inalienables hacia las empresas.
Asimismo nos obliga a informarnos, agruparnos, participar y proponer las regulaciones que necesitamos sean consagradas por el derecho en defensa de nuestro sector, dado que la velocidad de desarrollo tecnológico no es seguida de cerca por el accionar legislativo de los Estados. El rol de estos, tanto en el aspecto legislativo como el aspecto educativo, generando no solo los cuerpos legales sino también información asequible y proporcionando asesoría a sus ciudadanos, es crucial.
La discusión de regulaciones a nivel transnacional que consagren un uso y desarrollo éticos de la IA -materializados en el código que rige el funcionamiento maquínico-, así como el diseño de las normas que alcancen a quienes desarrollan y comercializan tecnología que incluya inteligencia artificial generativa, son dos temas prioritarios que resultan de vital importancia en la agenda de la protección del derecho al trabajo humano ante los desafíos de la así llamada “Cuarta revolución industrial”.