Tecnología

El despido de una especialista en ética nos muestra los límites éticos de Google

Un equipo de empleados de Google publicó una carta explicando los eventos que llevaron al despido por parte de Google de la Dra. Timnit Gebru, una destacada investigadora de ética de la inteligencia artificial cuyo trabajo ha ayudado a revelar prejuicios

El lunes 7 de diciembre, un equipo de empleados de Google publicó una carta explicando los eventos que llevaron al despido por parte de Google de la Dra. Timnit Gebru, una destacada investigadora de ética de la inteligencia artificial cuyo trabajo ha ayudado a revelar prejuicios raciales en los algoritmos de reconocimiento facial.

Gebru fue coautora, junto con investigadores de la Universidad de Washington, de un artículo académico sobre las consideraciones éticas de los modelos de aprendizaje automático. El artículo, después de ser aprobado internamente, fue enviado para su presentación en una conferencia. Según Gebru, Google objetó el documento y le pidió que quitara su nombre de él o se retractara. En respuesta, Gebru detalló las condiciones que quería que Google cumpliera para que ella se quedara en la empresa, incluida la transparencia en cuanto a la revisión interna del documento, a cambio de eliminar su nombre del mismo. Si la empresa declinaba, las partes negociarían una fecha para que ella se fuera. Sin embargo, fue despedida poco después, luego de enviar un correo electrónico sobre la situación a un software interno de distribución de mensajes, mejor conocido como listserv.

Videos by VICE

Jeffrey Dean, jefe de inteligencia artificial de Google, ha declarado públicamente que Gebru renunció. Pero esto no cuadra con las declaraciones de Gebru, o con el hecho de que su jefe inmediato, Samy Bengio, no estuviera al tanto de su renuncia. Además, la ley de California dice que un trabajador se considera despedido si ha expresado su intención de renunciar y fija una fecha para hacerlo, y luego es despedido inmediatamente, como le ocurrió a Gebru.

VICE obtuvo una copia del documento del que Gebru fue coautora antes de que Google la despidiera. El artículo trata sobre grandes modelos de lenguaje, que son algoritmos de aprendizaje automático con miles de millones de parámetros. El artículo examina los riesgos de que los sesgos humanos se perpetúen por conjuntos de datos masivos y potencialmente incomprensibles, las emisiones de carbono asociadas con el aprendizaje de grandes modelos de lenguaje y los esfuerzos de investigación que desarrollan modelos para manipular e imitar el lenguaje humano, en lugar de para comprenderlo.

Los modelos de aprendizaje automático se han hecho más grandes a lo largo de los años y también más capaces con menos entrenamiento supervisado. El modelo GPT-3 de OpenAI, por ejemplo, tiene 175 mil millones de parámetros y puede producir texto convincente a partir de una breve instrucción. Google, por su parte, utiliza grandes modelos de aprendizaje automático en sus productos. Estas nuevas capacidades son impresionantes, pero a los expertos les preocupan los sesgos (ya sean raciales, de género o de otro tipo) que estos poderosos modelos pueden adoptar de sus datos básicos de formación.

“¿Cuán grande es muy grande?” es una pregunta que el artículo se plantea desde el principio en su sinopsis. “Es importante comprender las limitaciones de los modelos de lenguaje y poner su éxito en contexto. Esto no solo ayuda a reducir su encumbramiento, el cual puede engañar al público y a los propios investigadores con respecto a las capacidades de estos modelos, sino que también podría promover nuevas líneas de investigación que no necesariamente dependan de tener modelos de lenguaje más grandes”.

Gebru quería presentar el artículo en una conferencia de informática en marzo y lo envió para revisión interna el 7 de octubre, un día antes de que fuera aprobado. Dean dijo en un comunicado que es un requerimiento que los equipos de investigación envíen los artículos a revisión dos semanas antes del dictamen, pero la carta publicada por Google Walkout for Real Change —el grupo detrás de las protestas mundiales de 2018 por la mala gestión de los casos de acoso sexual por parte de la compañía— explica que los datos recopilados de las revisiones y aprobaciones internas muestran que la mayoría ocurren justo antes de la fecha límite, mientras que el 41 por ciento ocurre después. Entonces, las acciones de Gebru no fueron anormales.

“No hay duda de que por alguna razón la censura a la investigación fue usada para tomar represalias contra Timnit y su trabajo”, le dijo a VICE Meredith Whittaker, directora de la facultad del AI Now Institute. “Creo que tampoco hay duda de que los modelos de lenguaje a gran escala son una de las formas más rentables de IA que se utilizan en tecnologías fundamentales como la de búsqueda. Google tiene interés corporativo en asegurarse de que puedan seguir utilizando esas tecnologías y obtener esos ingresos sin tener que realizar el tipo de cambios estructurales fundamentales que tendrían que hacer si realmente escucharan a sus investigadores de ética, como Timnit”.

En 2018, la división de inteligencia artificial de Google creó su propio gran modelo de lenguaje, BERT, que finalmente fue incorporado a su tecnología de búsqueda, la cual por sí sola generó ingresos de $26,3 mil millones de dólares en el último cuatrimestre fiscal. ¿Seguir las sugerencias de un artículo como el de Gebru —que sostiene que los grandes modelos de lenguaje conllevan riesgos significativos y se están volviendo demasiado inescrutables como para corregirlos— obligaría a Google a dejar de lado las ganancias en favor del desarrollo de modelos de lenguaje más pequeños y menos dañinos?

Audrey Beard, cofundadora de Coalition for Critical Technology e investigadora del aprendizaje automático, sugiere que en este caso Google opta por las ganancias.

“El aprendizaje automático ha estado orientado hacia un mayor rendimiento, algo que los coautores señalaron”, le dijo Beard a VICE después de analizar el artículo. “Este es el estándar de facto para la manera en que los investigadores de la inteligencia artificial evalúan las contribuciones de sus desarrollos a problemas técnicos muy específicos, los cuales se prestan para una investigación rápida y fácil de evaluar. Nosotros, los investigadores del aprendizaje automático, hemos hecho un muy buen trabajo al traducir esos cálculos al espacio operativo de los problemas empresariales, las soluciones y las empresas rentables; como ejemplo tenemos el equipamiento de Google para el cómputo en la nube enfocado en los consumidores y las empresas. Los modelos que están implementando son computacionalmente intensivos y al final también generan mucho dinero cuando esos recursos son vendidos a las personas que crean aplicaciones pero no quieren una computadora en el lugar”.

Todo esto se ve amplificado por el hecho de que los investigadores, especialmente en Google, se han vuelto cada vez más dependientes de las corporaciones para brindar apoyo en la formulación de preguntas de investigación y la búsqueda de respuestas. Ha surgido un problema similar en la economía colaborativa (gig economy), donde corporaciones como Uber se niegan a compartir datos sobre las operaciones que tienen un impacto significativo en la vida diaria de los conductores y pasajeros que se adscriben a sus servicios. Y cuando algún dato es revelado, se trata más bien de un ingenioso movimiento de relaciones públicas o de un fragmento tendencioso (y secreto) destinado a los investigadores, cuyos resultados no pueden ser revisados por pares adecuadamente. Como es de esperar, este tipo de investigaciones suelen reafirmar los posicionamientos de las empresas en cuestión.

“También creo que, sea lo que sea que haya sucedido en este caso en específico, el problema general que sacó a relucir es que estas empresas pueden suprimir cualquier investigación que deseen, pueden tomar represalias contra las personas que llegan a conclusiones que no les parecen convenientes por el motivo que sea”, le dijo Whittaker a VICE. “Creo que eso nos lleva al punto de considerar por qué deberíamos confiar en estas empresas e instituciones para crear esta forma de conocimiento, especialmente teniendo en cuenta los intereses públicos involucrados y considerando, sobre todo, la importancia que estas tecnologías están adquiriendo en la vida cotidiana y los riesgos significativos que eso conlleva”.

Whittaker sugiere que los nuevos foros de investigación —ya se trate de un regreso a la academia, con más fondos públicos y financiamiento a la investigación, o de una mayor participación de fundaciones filantrópicas— podrían mejorar las cosas, al igual que los “estándares de integridad en la investigación” en Google y en todo el sector privado para evitar que las empresas conviertan la investigación en propaganda; pero añadió que eso no es suficiente.

El despido de Gebru debería enfatizar el hecho de que los investigadores académicos y los empleados de Google deben sindicalizarse para lograr un mayor poder y autonomía en su propio lugar de trabajo, dijo.

“Esto es un catalizador”, dijo Whittaker. “Cada vez más empleados de élite —trabajadores académicos y tecnológicos que se identifican con su lugar dentro de una jerarquía y que se identifican más con los jefes— están dándose cuenta de que han sido invitados a la mesa, pero que no es su mesa. Pueden tener algún privilegio, pero ese privilegio se termina cuando no complacen a las personas que repetidamente toman decisiones que muchos de estos empleados no pueden apoyar moral y éticamente”.

En los últimos años, miles de empleados de Google han participado en grandes protestas y acciones con motivo del mal manejo por parte de la empresa de las denuncias de agresiones sexuales, los contratos con agencias gubernamentales, las represalias contra quienes organizan a los empleados y recientemente el despido de Gebru. Ahora, una petición del grupo Google Walkout cuenta con las firmas de 2,040 empleados de Google y 2,658 simpatizantes de la academia, la industria y grupos de la sociedad civil.

Google no ha respondido a la solicitud de comentarios por parte de VICE.