Timnit Gebru: La nota “deshumanizante” de Google me pinta como una mujer negra enfadada.

Timnit Gebru – Fotografía: Salem Solomon / VOA News

Khari Johnson | VentureBeat | December 10, 2020

En un memorando dirigido a los empleados de toda la compañía, el CEO de Google, Sundar Pichai, dijo que lamenta la forma en que la compañía despidió a la prominente co-líder de ética de IA Timnit Gebru. Dijo que acepta “la responsabilidad de trabajar para restaurar su confianza” y que la compañía está considerando ahora la implementación de “estrategias de desescalada.” Concluyó sus comentarios sobre por qué Google despidió a una de las investigadoras negras de IA más conocidas del mundo afirmando que la empresa trata la diversidad como una prioridad.

En respuesta a la nota, Gebru dijo que los comentarios de Pichai juegan con el tropo de que ella es una mujer negra enfadada y calificó el contenido de “deshumanizante”.

En una entrevista con VentureBeat, Gebru habló sobre la cultura tóxica en el lugar de trabajo en Big Tech, el lavado de ética, mantener la investigación de IA libre de influencias corporativas y las dos cosas que quiere que sepan las mujeres jóvenes y las personas de color interesadas en entrar en el campo del aprendizaje automático.

Desde que Google despidió a Gebru, muchos de sus colegas del equipo de ética de IA de Google, el resto de la empresa y la comunidad tecnológica en general han exigido responsabilidades y cambios. En esa semana, más de 2.000 Googlers y más de 3.700 simpatizantes del mundo académico y de la industria han firmado una petición de apoyo a Gebru y han calificado lo que le ocurrió como “despido de represalia” y como caso de “censura de la investigación sin precedentes”.

Antes de ser despedida, Gebru era codirectora del equipo de ética de IA de Google y ayudó a formar uno de los equipos más diversos de la división de investigación Google Brain. También es cofundadora de Black in AI y de la conferencia de investigación sobre IA Fairness, Accountability, and Transparency (FAccT). Gebru forma parte de un coro de voces en la comunidad de investigación sobre justicia algorítmica que afirman que los creadores de IA deben centrar su trabajo en las comunidades marginadas y abordar los riesgos y daños asociados al despliegue de modelos de IA.


Nota del autor: Esta entrevista ha sido editada en aras de la brevedad y la claridad.


VentureBeat: ¿Qué opinas del aparente compromiso de Sundar de investigar lo sucedido?

Timnit Gebru: Creo que [Google] acaba de ver todo el desbordamiento y tenían que decir algo, y por eso están diciendo algo. Pero dado el gaslighting y el hecho de que está hablando de una estrategia de desescalada, haciéndome sonar como una mujer negra enfadada, siento que esto es sólo una estrategia para sofocar lo que está sucediendo en este momento. Simplemente no tengo fe en ello.

Me pintan como una mujer negra enfadada porque te colocan en un lugar de trabajo terrible y si hablas de ello, te conviertes en un problema, y entonces empiezan a hablar de estrategias de desescalada.

Escribes correos electrónicos y los ignoran. Escribes documentos, y son ignorados. Entonces discutes sobre cómo se está haciendo, y entonces hablan de ti como si fueras una mujer negra enfadada a la que hay que contener.

VentureBeat: ¿Hay algún cambio político en particular que espere que se produzca como resultado de lo ocurrido?

Timnit Gebru: Sí, creo que hay varias, pero quiero pensarlo más antes de decir nada porque quiero ser intencionado y cuidadoso a la hora de sugerir cambios políticos.

VentureBeat: ¿Cómo debería influir lo que le ocurrió a usted en la opinión de la gente sobre la influencia de las empresas en la investigación?

Timnit Gebru: Mucha gente ha estado hablando de eso. Todas estas conferencias de investigación están fuertemente financiadas por la industria, así que ahora mismo ¿qué es la investigación en informática?. Es como si tuvieras el ejército y las corporaciones. ¿Qué otras opciones tenemos? A veces está el NIH, pero tiene que haber cosas que no estén asociadas con los intereses militares o corporativos que financien la investigación porque intrínsecamente hay un conflicto de intereses. No digo que no deba haber investigación en las corporaciones. Creo que debería haberla, pero cuando hay cosas como las que se están viendo conmigo, y especialmente con la censura [de la investigación], y luego se ve el tipo de influencia que tienen en estas conferencias, creo que es algo en lo que la gente realmente tiene que pensar.

El problema es que cuando haces una investigación que requiere muchos recursos, esto se convierte en un problema aún mayor. De eso también hablamos un poco en el documento.

VentureBeat: Uno de los primeros tuits que leí después de que te despidieran era de alguien que decía que hay muchas mujeres jóvenes y personas de color interesadas en entrar en el campo del aprendizaje automático que están viendo cómo sucede este episodio ahora mismo. Tengo curiosidad: ¿Qué quieres que sepan?

Timnit Gebru: Quiero que las mujeres jóvenes de color sepan que estos momentos son necesarios. Creo que estos momentos son realmente duros, y lo que me resulta doloroso es el mensaje que esto transmite. Lo más importante para mí es que si esto me está pasando a mí, ¿qué les está pasando a los demás?. Mucha gente no tiene la plataforma ni la visibilidad ni el apoyo popular que yo tengo, así que imagínate: ¿Qué les está pasando a otras mujeres negras? ¿Y cómo podemos seguir pensando que las empresas, por voluntad propia, con sus iniciativas de diversidad, van a hacer lo correcto?

Hay acosadores que se van con millones de dólares. Tienes a todas estas personas con un comportamiento tan tóxico, donde la gente dice “Pero son demasiado valiosos para la empresa”, “Oh, pero son socialmente torpes”, o lo que sea. Y tienes a una mujer negra que ha tenido que demostrar su valía una y otra vez. Por fin he llegado a un punto en el que mi experiencia es valorada por la gente, pero déjame decirte que no dentro de Google. Hubo muchas ocasiones en las que mi experiencia fue completamente descartada. Escribí sobre ello en mi correo electrónico.

Tienes a alguien cuyo jefe inmediato y miembros del equipo se han arriesgado a apoyarla públicamente. Tienes a alguien cuya comunidad entera está a su lado públicamente porque cofundé Black in AI con Rediet Abebe, y todo eso no es suficiente para ellos, no solo para determinar qué tan rápido tengo que irme, sino para hacerlo de la manera más irrespetuosa y luego jugar con la narrativa de la mujer negra enojada.

Lo que quiero que sepan estas mujeres es que no está en tu cabeza. No es culpa tuya. Sois increíbles y no dejéis que el gaslighting os detenga. Creo que con el gaslighting lo más duro es que hay repercusiones por hablar, pero también hay vergüenza. Muchas veces, la gente siente vergüenza porque creen que se lo han buscado de alguna manera.

Sé que es difícil sentir que no te lo has buscado y que tienes razón, pero tienes que sentirlo así. Y la forma de hacerlo es estar rodeado de gente y contar con esos [apoyos] de base, tener gente a tu alrededor que te lo afirme. Porque si sólo estás rodeado de gente como el vicepresidente que me acaba de hacer esto y me ha gaseado, sentirás constantemente que tú te lo has buscado. Eso es lo primero que diría.

La segunda cosa que diría es que por eso es importante que participes en nuestro futuro tecnológico y le des forma con tu propia imaginación. El Dr. Ramón Amaro dijo esto en nuestro taller Black in AI. Ruha Benjamin también habla de esto.

Por eso es realmente importante que reflexionemos sobre lo que nos está haciendo la educación científica, qué paradigma nos están enseñando, y por qué la única opción que se nos da ahora mismo es asimilarnos a esta estructura racista y sexista, donde si te atreves a salir de tu lugar entonces te expulsan como el objeto más descartable. No importa cuánta experiencia tengas. No importa cuánto apoyo tengas.

Así que no sólo es importante que participes en este futuro tecnológico, sino que pienses en un futuro alternativo en el que tu imaginación dé forma al tipo de tecnología que estamos construyendo. Porque ahora mismo, tu imaginación no está dando forma al tipo de tecnología que estamos construyendo. Estamos intentando hacer limpieza después de todos los hombres blancos que nos metieron en este lío. No estamos creando tecnología en nuestra propia imaginación. Ellos crean tecnología en su imaginación para servir a sus intereses, perjudica a nuestras comunidades, y luego tenemos que realizar la limpieza. Y mientras hacemos la limpieza, nos toman represalias.

VentureBeat: En lo que respecta a las personas que hacen cosas sin consecuencias, ¿qué tipo de mecanismos de rendición de cuentas cree que son necesarios para que la dirección de las grandes empresas tecnológicas aborde los problemas de larga data?

Timnit Gebru: Así que estás en un ambiente de trabajo tóxico y ¿qué pasa? Ninguno de los líderes ha avanzado por haber creado un buen entorno para las mujeres negras. ¿Por qué? Porque no tienen ninguna mujer negra a sus órdenes. Cero. Así que todos estos líderes, o líderes que han ascendido, llegaron a sus puestos sin tener que crear un entorno habitable y viable para gente como yo. ¿Y quiénes son los que determinan si los líderes lo están haciendo bien?. Los otros líderes, ¿quiénes son los que determinan si personas como mi [antiguo] director Samy [Bengio] u otros obtienen buenas calificaciones y calibración, etc?. Son esos líderes los que ya han fracasado a la hora de crear cualquier tipo de entorno habitable y respirable para gente como yo.

Entonces, ¿cómo esperas que luego responsabilicen a otras personas cuando ellos mismos han creado entornos hostiles para gente como yo? Y ya has visto lo que acaba de pasar. Me echaron lo más rápido posible. Ni siquiera tuvieron tiempo de aclarar su historia.

Eso no les importa. A esta empresa no le importa la diversidad ni la inclusión. Así que estoy tratando de pensar en lo que se podría hacer desde el exterior porque nada más está funcionando, y de hecho la palabrería lo hace mucho peor porque es gaslighting.

VentureBeat: ¿Cree que la remuneración de los ejecutivos de las grandes empresas tecnológicas debería estar vinculada a objetivos de diversidad, de modo que exista un incentivo mayor que el de “la próxima vez lo haremos mejor”?

Timnit Gebru: Quiero decir, ciertamente tiene que haber algo mejor que “Lo haremos mejor la próxima vez”. Me pregunto si su sueldo… Quiero decir, sí, creo que su sueldo probablemente debería estar directamente ligado a ello o a algo real. Algo real tiene que estar directamente ligado a los resultados.

La otra cosa que me preocupa es que si este tipo de cosas forman parte de la política, como por ejemplo si están vinculadas a su salario, entonces puede haber una reacción violenta de los grupos supremacistas blancos sobre dar a los negros una limosna y todas esas cosas.

VentureBeat: Algunos investigadores me han dicho que no entienden por qué el artículo que escribiste atrajo una respuesta tan fuerte de Google. ¿En qué medida cree que lo ocurrido tuvo que ver con el contenido del artículo o con algo más?

Timnit Gebru: Lo que estoy pensando es que hay muchos componentes en esto. Quizá el artículo tuvo algo que ver. Tal vez el documento era una excusa y estaban buscando una razón. Es decir, hablamos de grandes modelos lingüísticos [en el artículo], pero no hablamos específicamente de Google. Como BERT se utiliza en Google en las búsquedas, podría ser que fueran un poco sensibles a eso y quisieran censurar todo lo que salga de Google que tenga algo que ver con este tipo de cosas. Pero la cosa es que no es sólo la censura. Fue tan irrespetuosa la forma en que se hizo. Además de todo eso, quieren censurar mi trabajo sin ningún tipo de discusión.

VentureBeat: ¿Qué quiere hacer ahora?

Timnit Gebru: Aún no estoy segura. Literalmente, me dimitieron – me gusta esta palabra que usa mi equipo – me dimitieron en medio de mis vacaciones, y dije que quería volver y discutir esto después de las vacaciones. Así que sólo quiero recuperar el aliento. No quiero estar en estas instituciones que son hostiles a las mujeres negras. Creo que hice todo lo que pude para tratar de hacer una pequeña pepita habitable de estas instituciones para personas como el equipo de IA ética. Quiero asegurarme de que, haga lo que haga después, esté en un entorno seguro en el que no me hagan gaslighting y en el que no tenga que luchar tanto para hacer algo que es importante para mi comunidad.


• Diseño y maquetación web: Naida Jazmin Ochoa, diseñadora gráfica, ilustradora. Coordinadora del colectivo Arte es Ética.