PUBLICIDADE
Topo

Cristina de Luca

Demissão no Google joga luz sobre a IA Ética

Timnit Gebru - Getty Images
Timnit Gebru Imagem: Getty Images
Conteúdo exclusivo para assinantes
Cristina de Luca

Cristina De Luca é jornalista especializada em ambiente de produção multiplataforma. É diretora da ION 89, startup de mídia com foco em transformação digital e disrupção. Foi diretora da área de conteúdo do portal Terra; editora-executiva da área de conteúdo da Globo.com; e editora-executiva da unidade de Novos Meios da Infoglobo, responsável pela criação e implantação do Globo Online. Foi colunista de tecnologia da Rádio CBN e editor-at-large das publicações do grupo IDG no Brasil. Master em Marketing pela PUC do Rio de Janeiro, é ganhadora do Prêmio Comunique-se em 2005, 2010 e 2014 na categoria Jornalista de Tecnologia.

Colunista do UOL

05/12/2020 12h06

Na última quarta-feira, um tweet incendiou a comunidade internacional de Inteligência Artificial. Nele, a especialista em ética em IA, Timnit Gebru, contava ter sido demitida do Google, depois de ter enviado um e-mail para o Google Brain Women and Allies, um grupo de recursos internos da empresa, reclamando de censura a um de seus artigos sobre artigos de pesquisa sem falar com ela a respeito.

Manifestação de apoio à Gebru surgiram em todos os cantos da internet, praticamente de forma unânime, repletas de histórias de sua gentileza, competência e orientação. "Se temos heróis na comunidade de ética da IA, ela é um desses heróis", disse Susan Etlinger, do Altimeter Group. Com razão.

As contribuições de Gebru moldaram a compreensão moderna de como a Inteligência Artificial falha e os fundamentos técnicos de como os algoritmos tratam pessoas sub-representadas de maneira diferente.

Ela ajudou a liderar a equipe Ethical AI do Google e foi cofundadora da Black in AI, uma organização internacional focada em apoiar os pesquisadores e expandir o acesso a um campo tradicionalmente exclusivo. E esteve envolvida com algumas das mais importantes pesquisas sobre discriminação em modelos de reconhecimento facial, incluindo um estudo que ilustrou o preconceito de gênero e tipo de pele nos melhores sistemas comerciais de reconhecimento facial de IA da época.

Antes disso, foi pesquisadora no grupo de Justiça, Responsabilidade, Transparência e Ética (FATE) da Microsoft, onde também trabalhava para compreender, identificar e comunicar publicamente o preconceito algorítmico em produtos de uso diário.

Até aqui, a reputação e o papel de liderança de Gebru emprestaram credibilidade a elas e ajudaram a acalmar os críticos, entre acadêmicos e ativistas, que há muito expressam ceticismo sobre a integridade da pesquisa ética de IA em lugares como o Google. No início deste ano, o Google até anunciou planos para lançar uma consultoria de ética de IA, que forneceria dicas para problemas difíceis aprendidos com a própria pesquisa e experiência. Agora, será difícil para a empresa afastar as desconfianças sobre a integridade das suas pesquisas de ética em IA, opiniou Ansgar Koene, líder global de ética e regulamentação em IA da EY.

O Google não apenas demitiu a voz que conquistou o respeito da comunidade internacional, como deixou claro que há consequências por falar abertamente sobre os contrassensos internos e as contradições entre o discurso e a prática. Criou para si um problema de relações públicas sem solução que ilustra um problema de discriminação mais sistêmico.

"Quando vejo o Google no contexto de seu passado, ele tem um péssimo histórico de lidar com preconceitos e discriminação, e tem um histórico de não contratar pessoas de grupos marginalizados e sub-representados", disse ao Protocol Ellen Pao, cofundadora e CEO da Project Include e ex-CEO da Reddit.

De fato, a saída de Gebru ocorre um ano após outro proeminente especialista em ética em IA, Meredith Whittaker, deixar a companhia dizendo que ela e outras pessoas enfrentaram retaliação interna por ajudar a organizar greves de funcionários.

Vale a pena ler a recente entrevista de Whittaker a Alex Kantrowitz sobre poder político em tecnologia.

O Google alega que o artigo vetado, assinado por Gebru e outros membros de sua equipe, levantava preocupações sobre o preconceito nos modelos de linguagem, mas não levava em consideração pesquisas recentes para mitigar esses problemas. "Reconhecemos que os autores ficaram extremamente desapontados com a decisão que Megan e eu finalmente tomamos", escreveu Jeff Dean, chefe de pesquisa do Google, em um e-mail enviado aos googlers na manhã de quinta-feira.

Este não é o primeiro, e provavelmente não será o último, confronto entre o Google e seus funcionários por questões éticas, e a decisão da empresa de concordar com a demissão de Gebru de fato coloca em xeque a seriedade de seu compromisso com a IA ética. E escancara o desconforto em abordar a paridade racial em muitas empresas corporativas e de tecnologia.

Além de tudo isso, Gebru sempre desejou que a comunidade negra estivesse ciente das maneiras pelas quais os dados podem afetá-la negativamente, para estar mais motivados para entrar no campo da IA e fazer algo a respeito. E associar ativismo não apenas com marchas nas ruas, mas também com ativismo de dados. Talvez esse triste episódio com o Google acabe sendo eficaz nesse sentido, tornando o seu trabalho bem mais conhecido em todo o mundo.

Há poucos anos, as discussões sobre "ética de dados" e "ética de IA" eram reservadas para organizações sem fins lucrativos e acadêmicos. Hoje, as maiores empresas de tecnologia do mundo - Microsoft, Facebook, Twitter, Google e muito mais - estão reunindo equipes para resolver os problemas éticos que surgem da ampla coleta, análise e uso de grandes quantidades de dados, especialmente quando esses dados são usados para treinar modelos de aprendizado de máquina, também conhecido como IA.

Essas empresas estão investindo em respostas para questões éticas antes esotéricas porque perceberam uma verdade simples: deixar de operacionalizar os dados e a ética da IA é uma ameaça aos resultados financeiros. Errar o alvo pode expor as empresas a riscos reputacionais, regulatórios e legais.

Além disso, deixar de operacionalizar os dados e a ética da IA leva ao desperdício de recursos, ineficiências no desenvolvimento e implantação de produtos e até mesmo na incapacidade de usar dados para treinar modelos de IA.

Apesar dos custos de errar, a maioria das empresas luta contra os dados e a ética da IA por meio de discussões ad-hoc por produto. Sem um protocolo claro em vigor sobre como identificar, avaliar e mitigar os riscos, as equipes acabam ignorando os riscos, lutando para resolver os problemas à medida que eles surgem ou cruzando os dedos na esperança de que o problema se resolva sozinho.

Toda empresa precisará de um plano para mitigar os riscos - como usar dados e desenvolver produtos de IA sem cair em armadilhas éticas ao longo do caminho. Assim como outras estratégias de gerenciamento de risco, uma abordagem operacionalizada para dados e ética de IA deve sistematicamente e exaustivamente identificar riscos éticos em toda a organização, de TI a RH, marketing, produto e além.