Timnit Gebru vs la ‘Pausa de la IA’

Por MARK SCOTT  Con la ayuda de Derek Robertson | 11/04/2023 POLITICO.COM

La entonces científica de investigación de IA de Google Timnit Gebru habla durante la conferencia
TechCrunch Disrupt SF 201 | Kimberly White/Getty Images para TechCrunch

El jueves pasado, Mark Scott de POLITICO, autor del boletín Digital Bridge , entrevistó a la científica informática y activista Timnit Gebru sobre una carta abierta reciente de su Distributed AI Research Institute que argumentaba, en contra de la carta de alto perfil del Future of Life Institute que pedía “pausar la IA”, que los principales daños causados ​​por la IA ya están aquí y, por lo tanto, “los esfuerzos regulatorios deben centrarse en la transparencia, la rendición de cuentas y la prevención de prácticas laborales explotadoras”.

Mark le preguntó cuál cree que debería ser el papel de los reguladores en este panorama de rápido movimiento y cómo la sociedad podría adoptar un enfoque más proactivo para dar forma a la IA antes de que simplemente nos dé forma a nosotros. Esta conversación ha sido editada por su extensión y claridad.

¿Por qué es importante aumentar la transparencia y la rendición de cuentas sobre cómo se implementan los sistemas de IA y cómo beneficiaría la comprensión de las personas sobre cómo funciona la tecnología?

Primero, esto nos mostraría qué datos se están utilizando. ¿Se obtuvo con consentimiento informado opcional o fue robado? En segundo lugar, nos mostraría cuál es la calidad de los datos. ¿Qué fuentes de datos están usando? Es importante que la responsabilidad recaiga en las corporaciones para mostrarnos estas cosas antes del lanzarlas al mercado, en lugar de que las agencias con poco personal auditen o pregunten sobre ellas después del hecho.

¿Qué preocupaciones tiene sobre un pequeño grupo de empresas que potencialmente dominan la IA y cómo mitigaría esa amenaza?

Estas corporaciones quieren un modelo que haga todo para todos, en todas partes, para que todos paguemos a una o dos empresas para que literalmente hagan cualquier tarea en nuestras vidas. El fundador de OpenAI, Sam Altman, dijo que “en los próximos cinco años, los programas de computadora que pueden pensar leerán documentos legales y darán consejos médicos”. No tiene evidencia para esta afirmación, pero la gente realmente pensará que es verdad y comenzará a usar estos sistemas como tales. ¿Por qué querríamos tener un mundo en el que cada tarea la realice un modelo de OpenAI y todo el mundo les pague por hacerlo?

¿Cuál es su atractivo para los políticos? ¿Qué le gustaría que hicieran ahora el Congreso y los reguladores para abordar las preocupaciones que describe en la carta abierta?

El Congreso debe centrarse en regular las corporaciones y sus prácticas, en lugar de jugar con su exageración de ” mentes digitales poderosas “. Esto, por diseño, atribuye agencia a los productos en lugar de a las organizaciones que los crean. Este lenguaje ofusca la cantidad de datos que se recopilan, y la cantidad de explotación de los trabajadores involucrada con quienes etiquetan y suministran los conjuntos de datos, y moderan los resultados del modelo.

El Congreso debe garantizar que las corporaciones no utilicen los datos de las personas sin su consentimiento y responsabilizarlas por los medios sintéticos que producen, ya sea texto o medios que arrojen desinformación, discursos de odio u otros tipos de contenido dañino. Las regulaciones deben poner la responsabilidad sobre las corporaciones, en lugar de las agencias con personal insuficiente. Probablemente hay regulaciones existentes que estas organizaciones están rompiendo. Hay sistemas de “IA” que se usan a diario; acabamos de enterarnos de que otra persona de color fue arrestada injustamente debido al uso de sistemas automatizados de análisis facial. Pero eso no es de lo que estamos hablando, debido a la exageración.

La Unión Europea está avanzando con la legislación específica de IA y ya tiene amplias regulaciones de privacidad que abordan algunos de los problemas que menciona en la carta abierta. ¿Es optimista sobre lo que están haciendo los europeos?

Están haciendo algo, que es mucho mejor que no hacer nada. Sin embargo, con cosas como su Reglamento General de Privacidad de Datos, la responsabilidad de probar el daño recae en los individuos, en lugar de las corporaciones para probar a priori antes de lanzar un producto que cumple con un cierto conjunto de requisitos. Me gustaría una regulación que no ponga la responsabilidad sobre los individuos y las agencias con poco personal para probar el daño después de que los productos de IA ya hayan proliferado.

¿Qué quiere decir con esta frase de la carta abierta: “Deberíamos construir máquinas que funcionen para nosotros, en lugar de ‘adaptar’ la sociedad para que sea legible y escribible por máquinas”.

En la carta de “pausa” de AI de Future of Life Foundation, usaron palabras como “hacer frente” para tratar las “interrupciones de la democracia”. ¿Por qué debemos hacer frente? Esto suena tan ridículo para mí.

La sociedad debería desarrollar tecnología que nos sea de ayuda, en lugar de simplemente ajustarse a cualquier tecnología que se presente en nuestro camino. ” El camino a ninguna parte ” de Paris Marx describe sugerencias sobre lo que la gente debería usar para coexistir con los autos sin conductor, porque los diseñadores simplemente asumieron que los autos sin conductor deben existir a cualquier costo, y nosotros tenemos que hacer todo “legible para la máquina”, para ajustarla quiénes somos, y coexistir con ella. Esto enmarca a la tecnología no como una herramienta para ayudarnos a existir como queremos existir, sino como algo que tiene que existir, y tenemos que doblegarnos a su voluntad. Es una perspectiva muy extraña.


• Diseño y maquetación web: Naida Jazmin Ochoa, diseñadora gráfica, ilustradora. Coordinadora del colectivo Arte es Ética.