Timnit Gebru es conocida por su investigación sobre el sesgo y la desigualdad en la inteligencia artificial, y en particular por un artículo de 2018 del que fue coautora con Joy Buolamwini que destacó lo mal que le fue al software comercial de reconocimiento facial al intentar clasificar a mujeres y personas de color. Su trabajo generó una conciencia generalizada sobre los problemas comunes en la IA hoy en día, particularmente cuando la tecnología tiene la tarea de identificar cualquier cosa sobre los seres humanos.
En el correo electrónico, que fue publicado por primera vez por el boletín Platformer el jueves, Gebru escribió que se sentía «constantemente deshumanizada» en Google y expresó su consternación por la continua falta de diversidad en la empresa.
«Porque no hay responsabilidad. No hay ningún incentivo para contratar al 39% de mujeres: tu vida empeora cuando comienzas a defender a las personas subrepresentadas, comienzas a molestar a los otros líderes cuando no quieren darte buenas calificaciones durante la calibración. No hay forma de que más documentos o más conversaciones logren algo «, escribió.
Gebru también expresó su frustración por un proceso interno relacionado con la revisión de un artículo de investigación del que fue coautora con otros en Google y fuera de la empresa que aún no se había publicado.
El trabajo de investigación en cuestión
Gebru, quien se unió a Google a fines de 2018, le dijo a FGTELEVISION Business que el artículo de investigación en cuestión trataba sobre los peligros de los grandes modelos de lenguaje, una tendencia creciente en la inteligencia artificial con el lanzamiento de sistemas cada vez más capaces que pueden crear textos impresionantemente humanos como recetas. poesía, e incluso artículos de noticias. Esta es también un área de la inteligencia artificial que Google ha demostrado que considera clave para su futuro en las búsquedas.
Gebru dijo que el documento se presentó a la Conferencia sobre Equidad, Responsabilidad y Transparencia, que se llevará a cabo en marzo, y que no había nada inusual en cómo se envió el documento para revisión interna en Google. Dijo que escribió el correo electrónico el martes por la noche después de un largo intercambio de opiniones con el liderazgo de IA de Google en el que le dijeron repetidamente que retirara el documento de la consideración para su presentación en la conferencia o que eliminara su nombre.
Gebru le dijo a FGTELEVISION Business que el miércoles le informaron que ya no trabajaba en la empresa. «Realmente no tenía que ser así en absoluto», dijo Gebru.
Un correo electrónico enviado a los empleados de Google Research
Una portavoz de Google dijo que la compañía no tenía comentarios.
En un correo electrónico enviado a los empleados de Google Research el jueves que publicó públicamente el viernes, Jeff Dean, jefe de inteligencia artificial de Google, les dijo a los empleados su perspectiva: que Gebru fue coautor de un artículo pero no le dio a la empresa las dos semanas necesarias para revisarlo antes. su fecha límite. El documento fue revisado internamente, escribió, pero «no cumplió con nuestro estándar de publicación».
Dean agregó: «Desafortunadamente, este documento en particular solo se compartió con un día de anticipación antes de su fecha límite (necesitamos dos semanas para este tipo de revisión) y luego, en lugar de esperar los comentarios de los revisores, fue aprobado para su envío».
Dijo que Gebru respondió con demandas que debían cumplirse si quería permanecer en Google. «Timnit escribió que si no cumplíamos con estas demandas, dejaría Google y trabajaría en una fecha de finalización», escribió Dean.
Gebru le dijo a FGTELEVISION Business que sus condiciones incluían transparencia sobre la forma en que se ordenó que se retirara el documento, así como reuniones con Dean y otro ejecutivo de inteligencia artificial en Google para hablar sobre el tratamiento de los investigadores.
«Aceptamos y respetamos su decisión de renunciar a Google», escribió Dean. También explicó algunos de los procesos de investigación y revisión de la empresa y dijo que hablará con los equipos de investigación de Google, incluidos los del equipo de IA ética «para que sepan que apoyamos firmemente estas importantes corrientes de investigación».
Una muestra rápida de apoyo
Justo después del tweet inicial de Gebru el miércoles, compañeros de trabajo y otras personas rápidamente compartieron su apoyo en línea, incluida Margaret Mitchell, quien había sido la co-líder del equipo de Gebru en Google.
«Hoy amanece una nueva y horrible pérdida que cambia la vida en un año de horribles pérdidas que cambian la vida», Mitchell
tuiteó el jueves. «No puedo articular bien el dolor de perder a @timnitgebru como mi co-líder. He podido sobresalir gracias a ella, como tantos otros. Estoy sobre todo en estado de shock».
«Tengo tu espalda como tú siempre has tenido la mía».
tuiteó Buolamwini, quien además de ser coautor del artículo de 2018 con Gebru, es fundador de la Algorithmic League. «Eres brillante y respetado. Escuchas a los que otros ignoran fácilmente. Haces preguntas difíciles no para progresar, sino para elevar a las comunidades a las que debemos nuestros cimientos».
Sherrilyn Ifill, presidenta y directora asesora del Fondo de Educación y Defensa Legal de la NAACP,
tuiteó, «He aprendido mucho de ella sobre el sesgo de la IA. Qué desastre».
Para el mediodía del viernes, una publicación de Medium que denunciaba su partida y exigía transparencia sobre la decisión de Google con respecto al trabajo de investigación había obtenido las firmas de más de 1.300 empleados de Google y más de 1.600 partidarios en los campos académico y de inteligencia artificial. Entre quienes comparten su apoyo se encuentran numerosas mujeres que han luchado contra la desigualdad en la industria de la tecnología, como Ellen Pao, directora ejecutiva de Project Include y ex directora ejecutiva de Reddit; Ifeoma Ozoma, un ex empleado de Google que fundó Earthseed; y Meredith Whittaker, directora de la facultad del AI Now Institute y organizadora principal de Google Walkout 2018, que protestó por el acoso sexual y la mala conducta en la empresa. Otros incluyen a Buolamwini, así como a Danielle Citron, profesora de derecho que se especializa en el estudio del acoso en línea en la Universidad de Boston y Becaria MacArthur de 2019.
Citron le dijo a FGTELEVISION Business que ve a Gebru como una «luz líder» cuando se trata de exponer, aclarar y estudiar el racismo y las desigualdades arraigadas que se perpetúan en los sistemas algorítmicos. Gebru mostró lo importante que es repensar cómo se recopilan los datos, dijo, y hacer preguntas sobre si deberíamos usar estos sistemas, dijo.
«¿WTF, Google?» ella dijo. «Lo siento, pero tuviste tanta suerte de que ella incluso viniera a trabajar para ti.»