Robô vai flagrar se máquina inteligente é 'preconceituosa' ou enviesada

Não é só no Spotify ou filme no Netflix que a máquina toma decisões por humanos. Plataformas de inteligência artificial já decidem que pena dar a criminosos nos EUA e indicam quais pessoas são mais propensas a cometer crimes no Reino Unido. Claro, você não liga para a sua playlist ser repleta de pop dos anos 90. Mas, nos exemplos seguintes, os resultados das decisões podem ser mais graves: usar dados acumulados ao longo de outras experiências pode produzir decisões enviesadas ou preconceituosas.
Resolver esse problema é algo perseguido pelas líderes no setor, como Amazon, Google e Microsoft. A IBM apresenta sua arma: colocar um robô para flagrar quando seus companheiros estão derrapando.
VEJA TAMBÉM:
- Como o robô que acha pornografia infantil em fotos vai vasculhar vídeos
- Preconceito das máquinas: como algoritmos podem ser racistas e machistas
- Robôs devem ter os mesmos direitos que os humanos?
- Os humanos já tratam robôs como gente e há explicação para isso
Fora do Brasil, não faltam casos em que sistemas de inteligência artificial reproduziram algum preconceito: nos EUA, ativistas relatam que eles já sentenciam negros a tempo maior de cadeia que brancos, mesmo que tivessem o mesmo histórico e cometido o mesmo crime. Sistemas de reconhecimento facial são eficientes para identificar homens brancos, mas deslizam quando têm o rosto de negros ou mulheres pela frente.
Se você treinou o modelo de inteligência artificial com base em dados permeados por preconceito, o algoritmo vai responder com base neles
Alexandre Dietrich, líder da IBM Brasil para Watson, plataforma de serviços cognitivos da companhia
Quando se trata de decisões enviesadas tomadas por inteligência artificial, o problema geralmente está nas informações dadas a esses robôs para que aprendam como um procedimento funciona.
No caso do reconhecimento facial, por exemplo, o estoque de rostos é formado quase exclusivamente por homens e brancos -- 75% e 80%, respectivamente --, conforme mostrou uma reportagem do jornal "New York Times" no começo do ano. Alguns desses vieses só são percebidos quando o robô já deixou de ser treinado e suas decisões podem influenciar a vida de gente de carne e osso.
O serviço da IBM começa a funcionar a partir desta quarta-feira (19) no sistema de computação em nuvem da empresa. Mas poderá ser usado para vigiar também a inteligência artificial de outras empresas.
Ele vai fazer duas coisas. Primeiro, demonstrar como o robô tomou uma determinada decisão (quais dados foram considerados, como foram processados etc.). Segundo, vai sinalizar se os fatores levados em conta podem ter gerado algum viés no resultado -- Dietrich exemplifica com uma hipótese: se um comparador de preços de imóveis receber somente informações de bairros de alto padrão de São Paulo, o viés apontado pelo robô será ter usado uma amostra bastante restrita de dados.
A princípio, seu uso será gratuito. Depois, outros modelos de cobrança serão introduzidos.
"O modelo é construído com base nos dados que você tem, mas, se a massa de dados não espelha a situação sobre a qual você quer fazer previsões, ele pode te dar um resultado parcial. É essa parcialidade que a gente quer ajudar as empresas a mitigar", diz Dietrich.
VEJA TAMBÉM:
- "Com um robô-telefonista, me vinguei de empresa que não parava de ligar"
- A inteligência artificial pode desenvolver problemas mentais?
- Como identificar se você está falando com um robô nas redes sociais?
- Quer um robô em casa? Cuidado: eles podem ser hackeados e ficar "violentos"
Já existem sistemas semelhantes a esse, mas eles se restringem à etapa de treinamento das máquinas. O da IBM funciona enquanto a máquina está rodando para valer.
O executivo explica que há três razões para o robô ser criado. O primeiro deles é tornar mais justas as decisões tomadas por plataformas de inteligência artificial, de modo que não reproduzam dados coletados de ambientes já enviesados. O segundo deles é reduzir o caráter de caixa-preta que alguns algoritmos possuem e dar mais transparência ao modo como suas engrenagens giram -- às vezes, nem os próprios pesquisadores conseguem explicar qual foi o raciocínio ou as informações consideradas por um robô para que ele chegasse a uma resposta.
"Quando estamos discutindo o uso de inteligência artificial em empresas, é muito diferente do que dizer que você tem que pegar uma rota no trânsito ou indicar a música que você tem que escutar. Para essas situações, não faz muita diferença se você seguir ou não a recomendação. No mundo corporativo, você tem que explicar porque tomou uma decisão de negócio", explica Dietrich.
"Recomendar o próximo tratamento médico ou uma manutenção tem impactos econômicos significativos."
Uma pesquisa feita pela IBM apontou que o receio de não conseguir explicar o caminho trilhado por uma inteligência artificial para chegar a um resultado afasta empresas dessa tecnologia.
O terceiro razão para criar um desses sistemas são as leis de privacidade que entraram em vigor recentemente. Tanto o GDPR, na Europa, quanto a Lei Geral de Proteção de Dados Pessoais, no Brasil, exigem que empresas que disponham de processos automáticos que usem informações de indivíduos para tomar decisões a respeito dele tenham de mostrar como o processo ocorreu.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.