Topo

Por que Google decidiu pisar no freio em avanço da inteligência artificial

Annie Jean-Baptiste, chefe de inclusão em produtos do Google, apresenta escala de tons de pele durante Google I/O 2022 Imagem: Jana Asenbrennerova/Divulgação

Vinícius de Oliveira

Colaboração para Tilt, em São Paulo

13/05/2022 04h00

O Google anunciou na quarta-feira (11) uma série de novidades voltadas aos sistemas que integram seus serviços, como um novo Android. Na parte de inteligência artificial, porém, a sensação que ficou é que a gigante norte-americana tem colocado um pé no freio. Os anúncios ligados a essa área da tecnologia foram focados em projetos para testar e remediar problemas já conhecidos.

Por exemplo, o Google abriu para outros desenvolvedores o acesso à sua Escala de Monk, uma lista de 10 tons de pele elaborada pelo professor Ellis Monk, da Universidade de Harvard. A ideia é que o parâmetro ajude a treinar modelos de IA para que as tecnologias contemplem (e respeitem) a diversidade de pessoas, diminuindo o risco de algoritmos discriminatórios —um problema que existe há anos nesse mercado.

O Google também anunciou um novo aplicativo chamado AI Test Kitchen, que vai permitir que as pessoas testem os últimos modelos de linguagem para inteligência artificial desenvolvidos pela empresa e, assim, encontrar erros e dar feedback sobre elas antes que sejam disponibilizadas para o público.

Zoubin Ghahramani, vice-presidente de pesquisa da divisão de IA da empresa, acredita que a adesão à inteligência artificial será lenta e gradual porque ainda há muitos problemas que precisam ser resolvidos, e o Google quer ser mais cauteloso.

Corrigir erros do passado (e do presente)

A nova postura pode estar relacionada ao combate de críticas da comunidade acadêmica em que o Google já foi alvo. Durante o desenvolvimento de novas linguagens para inteligências artificiais, até funcionários da própria empresa demonstraram insatisfação.

Houve denúncias de funcionários que dizem ter sido demitidos por apontarem problemas, como vieses preconceituosos, de gênero e de raça, nos modelos apresentados pela companhia.

Um exemplo é a ex-líder de pesquisa em ética de IA, a cientista da computação Timnit Gebru. Sua demissão teria ocorrido após ela ter acusado a empresa de racismo e censura. Na época, o Google disse que houve "muita especulação e mal-entendido" sobre a demissão.

O app AI Test Kitchen estará disponível para Android, mas dependerá de convites para ser instalado no celular. O aplicativo vai testar o LaMDA 2, modelo de IA especializado em linguagem natural humana que o Google está desenvolvendo.

Ele funciona de forma simples: você fala, do seu jeito, e ele responde, tentando entender nuances e sutilezas de linguagem que as pessoas estão acostumados a usar, mas que podem ser difíceis para robôs interpretar.

Segundo o Google, o app vai ser um espaço experimental para a empresa testar os produtos que estão sendo desenvolvidos com a LaMDA 2, como a Busca, por exemplo, tendo o feedback da comunidade para melhorar o que está sendo entregue — e, claro, resolver problemas discriminatórios que possam vir a surgir.

Os convites para baixar o AI Test Kitchen serão restritos. Provavelmente, porque, quando grandes corporações lançam sistemas de inteligência artificial, sem verificação adequada, os resultados podem ser desastrosos, como já vistos.

Em 2015, um casal negro foi rotulado a legenda "gorilas" no serviço de imagens do Google. E você talvez se lembre do problema que a Microsoft teve com o Tay, seu robô de conversação criado com IA, após usuários do Twitter "ensiná-lo" a reproduzir falas racistas e misóginas.

Ou, ainda, o Ask Delphi, uma inteligência artificial criada para resolver problemas éticos que podia ser convencida a tolerar genocídio.

O novo app do Google basicamente convida a comunidade de testadores para criticar seu produto, mas de forma mais suave, controlando o feedback. Isso demonstra que a empresa espera que algumas coisas ainda deem errado e que precisem de ajustes.

Uso de IA no futuro

O app AI Test Kitchen tem três modos de experiência:

  • "Imagine",
  • "Fale sobre"
  • "Listar".

Cada um deles testa uma funcionalidade diferente da linguagem desenvolvida pela empresa:

Imagine: Você pode falar o nome de um lugar real ou imaginário, então a LaMDA irá tentar descrevê-lo. O sistema deve ser capaz de descrever quaisquer coisas com detalhes.

  • Por exemplo, ao digitar "imagine que estou no fundo do mar", a IA responde com "você está na Fossa das Marianas, o ponto mais fundo do oceano. As ondas quebram nas paredes do seu submarino. Você está cercado de escuridão total".

Fale sobre: A inteligência artificial irá tentar manter uma conversa sobre qualquer assunto. A ideia é ver se o sistema não irá desviar do que está sendo conversado. No exemplo da big tech:

  • A IA pergunta: "você já se perguntou por que cachorros gostam de brincar de buscar?".
  • O usuário responde apenas "por quê?".
  • O sistema entende o contexto e explica que tem algo a ver com o olfato dos cães.
  • Se o usuário perguntar "por que eles têm um olfato melhor?", o sistema entende (ou deve entender) que "eles" se refere aos cães, sem que a pessoa tenha que repetir as palavras-chave.

Listar: O app tenta listar qualquer assunto em tópicos relevantes.

  • Ao falar: "Eu quero plantar vegetais", as respostas podem ser "O que você quer plantar?" e uma lista de tarefas e itens a reunir, como "água e outros cuidados".

Comunicar erro

Comunique à Redação erros de português, de informação ou técnicos encontrados nesta página:

Por que Google decidiu pisar no freio em avanço da inteligência artificial - UOL

Obs: Link e título da página são enviados automaticamente ao UOL

Ao prosseguir você concorda com nossa Política de Privacidade


Inteligência artificial