Las autoras de Stochastic Parrots sobre la “Pausa de la IA”

Angelina McMillan-Major (Universidad de Washington), Margaret Mitchell (Hugging Face), Timnit Gebru (DAIR), Emily M. Bender (Universidad de Washington)

31 de marzo de 2023 / www.dair-institute.org

Tl;dr: Los daños de la llamada IA ​​son reales y presentes y se derivan de los actos de personas y corporaciones que implementan sistemas automatizados. Los esfuerzos regulatorios deben centrarse en la transparencia, la rendición de cuentas y la prevención de prácticas laborales explotadoras.

[Fuente de la imagen: Rens Dimmendaal y David Clode / Mejores imágenes de IA / Pez invertido / CC-BY 4.0]

El martes 28 de marzo, el Instituto Future of Life publicó una carta en la que solicitaba una moratoria mínima de seis meses para “entrenar sistemas de IA más potentes que GPT-4”, firmada por más de 2000 personas, incluido el ganador del premio Turing Yoshua Bengio y uno de los hombres más ricos del mundo, Elon Musk.

Si bien hay en la carta una serie de recomendaciones con las que estamos de acuerdo (y propuestas en nuestro documento de 2021 conocido informalmente como “Loros estocásticos“), como 1) usar “sistemas de marcas de agua y procedencia para ayudar a distinguir los medios reales de los sintéticos”, estos se ven eclipsados ​​​​por el alarmismo y la exageración de la IA , que dirige el discurso hacia los riesgos de una imaginaria “mente digital poderosa” con “inteligencia competitiva con la humana”. Esos riesgos hipotéticos son el foco de una ideología peligrosa llamada largoplacismo  (longtermism) que ignora los daños reales que resultan del despliegue de sistemas de IA en la actualidad. La carta no aborda ninguno de los daños continuos de estos sistemas, para crear productos que lucran con un puñado de entidades, 2) la explosión de medios sintéticos en el mundo, que reproducen sistemas de opresión y ponen en peligro nuestro ecosistema de información , y 3) la concentración de poder en manos de unas pocas personas, lo que exacerba las desigualdades sociales.

Si bien no nos sorprende ver este tipo de carta de una organización que cree en el largoplacismo como el Future of Life Institute, generalmente alineada con una visión del futuro en la que nos convertimos en posthumanos radicalmente mejorados , colonizamos el espacio y creamos billones de personas digitales,   estamos consternados al ver la cantidad de profesionales de la computación que han firmado esta carta y la cobertura mediática positiva que ha recibido.

Es peligroso distraernos con fantaseadas de utopía o apocalipsis habilitados por la IA que promete un futuro “floreciente” o “potencialmente catastrófico” [1]. Tal lenguaje infla las supuestas capacidades de los sistemas automatizados y los antropomorfiza, como evidenciamos en Stochastic Parrots, engaña a la gente para que piense que hay un ser sensible detrás de los medios sintéticos.  Esto no sólo atrae a las personas para que confíen acríticamente en los resultados de sistemas como ChatGPT, sino que también le atribuye erróneamente dicha capacidad: esa responsabilidad propiamente dicha no recae en los artefactos sino en sus constructores.

Lo que necesitamos es una regulación que imponga la transparencia. No solo siempre debe quedar claro cuando nos encontramos con medios sintéticos, sino que también se debe exigir a las organizaciones que construyen estos sistemas que documenten y divulguen los datos de capacitación y las arquitecturas modelo. La responsabilidad de crear herramientas que sean seguras de usar debe recaer en las empresas que construyen e implementan sistemas generativos, lo que significa que los desarrolladores de estos sistemas deben ser responsables de los resultados producidos por sus productos. 

Si bien estamos de acuerdo en que “dichas decisiones no deben delegarse en líderes tecnológicos no elegidos”, también señalamos que tales decisiones no deben depender de los académicos que experimentan un “verano de IA”, que en gran medida están en deuda financiera con Silicon Valley . Los más afectados por los sistemas de IA, los inmigrantes sometidos a “muros fronterizos digitales “, las mujeres que se ven obligadas a usar ropa específica , los trabajadores que experimentan TEPT mientras filtran los resultados de los sistemas generativos, los artistas que ven cómo les roban su trabajo para obtener ganancias corporativas y los trabajadores temporales que luchan por pagar sus facturas deberían tener algo que decir en esto. conversación.

Contrariamente a la narrativa de la carta de que debemos “adaptarnos” a un futuro tecnológico aparentemente predeterminado y hacer frente “a las dramáticas perturbaciones económicas y políticas (especialmente a la democracia) que causará la IA”, no estamos de acuerdo en que nuestro papel sea ajustar a las prioridades de unos pocos privilegiados y lo que deciden construir y proliferar. Deberíamos construir máquinas que funcionen para nosotros, en lugar de “adaptar” la sociedad para que sea legible y escribible por máquinas. 

La carrera actual hacia “experimentos de IA” cada vez más grandes no es un camino predeterminado en el que nuestra única opción es cuán rápido correr, sino más bien un conjunto de decisiones impulsadas por el afán de lucro. Las acciones y elecciones de las corporaciones deben estar determinadas por una regulación que proteja los derechos e intereses de las personas.

De hecho, es hora de actuar: pero el foco de nuestra preocupación no debe ser sobre unas imaginarias “mentes digitales poderosas”. En cambio, deberíamos centrarnos en las prácticas explotadoras bien reales y muy presentes de las empresas que afirman construirlas, que están centralizando rápidamente el poder y aumentando las desigualdades sociales.

———

[1] Notamos que la eugenesia, una práctica muy real y dañina con raíces en el siglo XIX y que continúa hasta el día de hoy, se menciona en la nota al pie 5 de la carta como un ejemplo de algo que también es solo “potencialmente catastrófico”.



• Diseño y maquetación web: Naida Jazmin Ochoa, diseñadora gráfica, ilustradora. Coordinadora del colectivo Arte es Ética.