Topo

Para especialista, aprendizado de máquina tem potencial de armas nucleares

Yaser Said Abu-Mostafa, professor de Engenharia Elétrica e Ciências Computacionais do Instituto de Tecnologia da Califórnia - Cecília Bastos/USP Imagens
Yaser Said Abu-Mostafa, professor de Engenharia Elétrica e Ciências Computacionais do Instituto de Tecnologia da Califórnia Imagem: Cecília Bastos/USP Imagens

Marcela Canavarro

Colaboração para Tilt

01/09/2019 04h00

O uso acelerado do aprendizado de máquina pode ser incrível, mas também anda trazendo preocupações consideráveis. Quando um especialista compara esse conceito ao potencial das armas nucleares, é bom prestarmos atenção.

É o que diz Yaser Said Abu-Mostafa, autor do best-seller "Aprendendo com dados", professor de Engenharia Elétrica e Ciências Computacionais do renomado Instituto de Tecnologia da Califórnia, e também o responsável pelo curso online de aprendizado de máquina mais bem-sucedido da atualidade, com cinco milhões de alunos.

Abu-Mostafa fez uma rápida passagem pelo Brasil para participar da São Paulo School of Advanced Science on Learning from Data, organizada pelo Instituto de Matemática e Estatística da USP.

Para ele, o atual entusiasmo com a inteligência artificial é fruto das bem sucedidas experiências dos últimos sete anos, quando as máquinas ganharam eficiência em tarefas típicas dos humanos, como reconhecimento facial e de discursos. Mas se essas ferramentas caírem nas mãos erradas ou não tiverem a devida regulamentação, "teremos problemas", diz ele.

Veja a entrevista:

Tilt - Na sua apresentação, você mostrou que a primeira onda de inteligência artificial era focada no mercado financeiro; a segunda, em e-commerce; e a onda dos últimos anos é focada na visão e em outras tarefas de percepção, como reconhecimento de discurso, detecção de objetos e tradução pela máquina. Na sua opinião, qual será a próxima fronteira para a inteligência artificial?

Yaser Said Abu-Mostafa - As pessoas têm agora muita ambição porque a última onda foi particularmente bem-sucedida. Foi o primeiro exemplo em que [a máquina] realmente bateu a performance dos humanos, sistematicamente, em jogos e em tarefas de percepção.

As pessoas agora tentam chegar a um sistema mais sofisticado, multitarefas, mas isto ainda não está completamente definido. Ainda estamos num estágio inicial. Estamos substituindo o trabalho inteligente dos humanos fazem, principalmente os rotineiros. Se você for para os [trabalhos] mais estratégicos, fica mais interessante. Mais arriscado, mas mais interessante.

Tilt - A inteligência artificial dos anos 50 lidava com um mundo menos diverso do que o de hoje, em termos culturais. A diversidade vem sendo mais valorizada, e isso reflete, claro, nos dados que produzimos. Por que a diversidade é importante para a evolução da inteligência artificial?

Abu-Mostafa - Se nos referimos à diversidade em termos de viés, então é totalmente claro que se você pega imagens para que elas sejam reconhecidas, e estas imagens têm um viés em favor de um grupo de pessoas em particular, então [o sistema] será melhor em reconhecer estes do que outros.

Este problema não estava posto nos anos 1950, mas nem as habilidades técnicas chegavam ao ponto de encarar um problema como este. Mal começamos a fazer as coisas funcionarem sem este tipo de consequências. Há várias precauções que precisam ser tomadas, algumas delas em termos de coleta de dados...

Tilt - Por exemplo...

Abu-Mostafa - Você deve estar seguro de que o sistema não tem um viés mais sutil, porque o sistema pode encontrar qualquer dependência. Digamos que você tem dois grupos de pessoas e você não diz à máquina qual grupo é qual. Mas a máquina é capaz de interpretar que grupo é por outros atributos, porque é inteligente. Ela, de fato, pode encontrar isso e se tornar enviesada. Fazer uma máquina sem vieses é mais complicado do que as outras [precauções]. É um dos aspectos mais ativos em termos de pesquisa em aprendizado de máquina, neste momento.

Tilt - Ao contrário do mundo real, o ecossistema tec é globalmente conhecido pela falta de diversidade. Você acredita que este perfil predominante daqueles que desenvolveram as tecnologias influenciou a forma como o aprendizado de máquina evoluiu? Como?

Abu-Mostafa - Eu não acredito que isso afetou a tecnologia em si. Pode ter afetado o acesso à tecnologia e quem era bom fazendo tecnologia. Mas eu tenho visto esforços, por exemplo, no EUA, onde estão intencionalmente falando que o "desequilíbrio é inaceitável, e temos que fazer algo sobre isso". E começaram a contratar mulheres, por exemplo.

No início, havia sempre aquela ideia de que as mulheres estivessem sendo contratadas só porque eram mulheres e não porque eram boas. Com o tempo, isso deixou de ser um problema. Agora, ainda temos vontade de contratar mais mulheres, mas não há mais dúvida que a qualidade é exatamente a mesma. Há uma transição em que você intencionalmente faz um esforço para desfazer uma desigualdade que existia. Em algum momento, você chega ao ponto em que as pessoas nem mesmo se lembram do tempo em que havia discriminação.

Tilt - A discriminação algorítmica preocupa o senhor?

Abu-Mostafa - Ela me preocupa na medida em que os dados antigos são uma preocupação. Se os dados antigos foram coletados de forma enviesada, ou se representavam algo de alguma forma enviesada, então, isto é uma preocupação. Acredito em tomarmos certas preocupações, dando pesos para equilibrar o que já está desbalanceado. Isto estará bem, até que o momento em que não há como pesar. Acredito que é possível solucionar este problema. A maior complicação é a falta de determinação, não a dificuldade técnica de resolver isso.

Tilt - Quais são as contribuições mais relevantes da inteligência artificial para a humanidade, na sua opinião?

Abu-Mostafa - Até aqui, as [tarefas] mais bem-sucedidas foram as de percepção. Por exemplo, para a segurança, é ótimo. Se você tem alguns criminosos que você quer evitar, é possível ter alvos bem específicos a fim de reconhecê-los. Este campo da segurança é antigo, mas o grande sucesso neste campo tem apenas sete anos. Este é o ponto em que podemos fazer, rotineiramente, a performance do aprendizado da máquina melhor que a dos humanos, em uma variedade de tarefas. Então, haverá uma substituição gradual de certas coisas por máquinas.

Tilt - E isso traz vantagens e desvantagens...

Abu-Mostafa - A vantagem é que as coisas podem ser feitas de formas mais consistente e barata. O lado ruim é que, se você está substituindo pessoas no trabalho, é melhor planejar isso muito bem. Temos o modelo da revolução industrial. Quando ela aconteceu, havia muita resistência, mas as pessoas tinham que carregar coisas pesadas, a qualidade de vida era horrível. Agora estas pessoas fazem coisas interessantes e deixam a máquina fazer o pesado. O aprendizado de máquina fará o trabalho mental pesado e nos deixará fazer a estratégia e as tarefas interessantes.

Tilt - Há uma grande preocupação, atualmente, de que as máquinas vão substituir os humanos no local de trabalho. Você acha que há algum exagero nisso?

Abu-Mostafa - Se voltarmos na História, veremos que esta preocupação sempre esteve lá quando novas coisas eram feitas. Eu diria que a única diferença, hoje, é que isso está acontecendo rápido. Em algum momento, no ponto estável, as pessoas se adaptarão e, talvez, tenham uma qualidade de vida ainda maior. As pessoas têm toda uma gama de cenários novos, onde elas não terão que trabalhar, o que é interessante.

Para alguns haverá, dentro de seu tempo de vida, turbulência no modo como estavam acostumados ou sabiam fazer as coisas. E isso tem que ser levado muito a sério, porque se você não leva a sério e isso começa a acontecer, será um problema social real e, provavelmente, já será muito tarde para lidar com ele.

Tilt - Não teremos tempo para nos adaptar?

Abu-Mostafa - Não haverá tempo para adaptar e imaginamos que algumas pessoas não serão treinadas sobre algo novo que acabou de sair. Vão continuar a fazer o que já faziam e, quando isto não estiver mais lá, se aposentarão, porque o normal é que se aposentem. Antes, havia tempo para se adaptar, ou para se recusar a se adaptar, e ainda assim não conhecer as consequências. Imagine que você estudou cinco anos na faculdade, você tinha conhecimentos, e agora tudo o que aprendeu é irrelevante. Isso é uma questão séria e tem que ser tratada.

Tilt - Não vamos precisar trabalhar, exceto aqueles que desenvolvem os algoritmos...

Abu-Mostafa - Sim, exatamente (risos).

Tilt - O que você diria para quem tem medo de que a inteligência artificial se torne o novo "big brother"?

Abu-Mostafa - Por um ângulo, [a inteligência artificial] possibilita a mentalidade do big brother, o que significa que pessoas que querem impor esse estado terão ferramentas melhores para isso. Neste caso, a resposta seria sim, há ferramentas mais eficientes para isso. Por outro lado, há mais ferramentas para o outro lado resistir. As pessoas geralmente acham que a inteligência artificial vai tomar o poder... eu não acredito nisso. Para a máquina tomar o poder, é necessário que haja agentes capazes de fazê-lo, apesar do nosso desejo de que isso não seja feito.

Tilt - O senhor acha que o poder econômico e político para resistir a isso está em equilíbrio com o poder econômico e político para impô-lo?

Abu-Mostafa - Esta não será uma opinião técnica, será mais uma opinião como cidadão. Eu estou preocupado. Porque vejo pessoas focadas no jogo de curto prazo, e no jogo pessoal, seja político ou não. Elas não necessariamente olham para as consequências de longo prazo porque isso não as afetará. Elas estarão fora do escritório, desfrutando a vida no Havaí, ou onde seja.

Há uma preocupação real de que haja abusos e eu não tenho um caminho claro ou fórmula para evitá-lo. Este não é meu campo: fazer com que as pessoas entendam que podem aprovar uma lei ou ter uma forma de vigilância para minimizar isso. Isso é para as pessoas legítimas, como o governo. Os caras que têm as ferramentas para fazer coisas terríveis terão formas mais sofisticadas. Isso é uma preocupação real, na mesma medida que as armas nucleares são.

Tilt - Em que sentido podemos comparar a inteligência artificial com as armas nucleares?

Abu-Mostafa - Se elas caírem nas mãos erradas, teremos problemas. Algo precisa ser feito. Temos o modelo das armas nucleares para entender que pode haver algo que tem um grande potencial e um grande risco, e que precisamos legislar e criar políticas da forma correta. Eu sou mais que esperançoso de que isso será regulamentado de uma forma boa. A parte que eu sei pouco, mas que me preocupa, é que as pessoas simplesmente não ligam para as consequências em nome desse jogo pequeno e depois as coisas evoluem a tal grau em que teremos problemas.

Tilt - Que áreas geram mais preocupação em relação às aplicações da inteligência artificial?

Abu-Mostafa - Provavelmente, segurança computacional. Isso já é muito valorizado e nunca lidamos com ela de forma sistemática. As pessoas ficaram muito animadas com os computadores e começaram a construí-los, e apenas quando já havia muitos computadores e coisas suficientemente sofisticadas, algumas pessoas começaram a atacá-los e aí descobriram que era realmente muito fácil atacar. A partir deste ponto, começamos a remendar ao invés de fundamentalmente resolver o problema.

A prática do hacking acontece no mundo todo. Agora, estão atacando as plataformas sociais, gerando páginas fake realistas. Usando processamento natural de linguagem, produzem discursos tão verossímeis que aparecem em buscas. Então, a segurança se torna ainda mais vulnerável com a inteligência artificial, porque uma vez que você tem acesso a certas coisas que não tinha antes, todas as possibilidades estão lá, possibilidades lamentáveis, capazes de gerar danos. Eu diria que isso é, provavelmente, o grande item que precisa ser observado imediatamente.