Topo

Reconhecimento de emoções? Por que cientistas de IA acham isso errado

Estúdio Rebimboca/UOL
Imagem: Estúdio Rebimboca/UOL

Letícia Sé

Colaboração para Tilt, em São Paulo

04/01/2020 04h00

A tecnologia de reconhecimento facial já é realidade —seja para coisas banais, como destravar seu celular, seja para vigilância extrema, como acontece na China. Agora os cientistas debatem os limites do uso da inteligência artificial para uma das consequências deste avanço: reconhecer emoções.

Programas de reconhecimento de emoções por expressão facial ainda não têm comprovação científica, apesar de ganharem popularidade em ambientes variados. Já usam em empresas de recursos humanos para recrutamento de empregados, em centros médicos para avaliação da dor do paciente e até no monitoramento da atenção de alunos nas salas de aula.

Na China, por exemplo, a leitura facial já é usada na segurança pública e o país está implementando o reconhecimento de emoções em estações de transporte público para detectar suspeitos.

Em relatório anual lançado no mês passado, o instituto de inteligência artificial da Universidade de Nova York (AI Now) criticou o desenvolvimento desta técnica. "Evidências científicas atuais sugerem que sua eficácia não se sustenta. Precisamos examinar por que as entidades estão usando tecnologia defeituosa para fazer avaliações sobre o caráter com base na aparência física", diz o documento.

No relatório científico do instituto, os pesquisadores divulgaram uma lista de 12 recomendações sobre a tecnologia que desvenda emoções.

  1. Agências reguladoras devem proibir o uso do reconhecimento de emoções em decisões importantes que impactam a vida das pessoas e o acesso a oportunidades --e as empresas de IA deveriam parar de implantar essa técnica.
  2. O governo e as empresas devem interromper todo o uso do reconhecimento facial em contextos sociais e políticos sensíveis até que os riscos sejam completamente estudados e regulamentações adequadas estejam em vigor
  3. A indústria da IA precisa de estruturais significativas para lidar com o racismo sistêmico, a misoginia e a falta de diversidade
  4. A pesquisa de viés da IA deve ir além das correções técnicas para abordar as políticas e consequências mais amplas do seu uso
  5. Os governos devem exigir a divulgação pública do impacto climático do setor de IA
  6. Os trabalhadores devem ter o direito de contestar a IA exploradora e invasiva --e os sindicatos podem ajudar
  7. Trabalhadores do setor de tecnologia devem ter o direito de saber o que estão construindo e de contestar usos antiéticos ou prejudiciais do seu trabalho.
  8. Os estados devem elaborar leis ampliadas de privacidade biométrica que regulem os atores públicos e privados
  9. Os legisladores precisam regular a integração de infraestruturas de vigilância pública e privada.
  10. As avaliações de impacto algorítmicas devem levar em consideração o impacto da IA no clima, na saúde e no deslocamento geográfico.
  11. Os pesquisadores de aprendizado de máquina devem dar conta de riscos e danos potenciais e documentar melhor as origens de seus modelos e dados.
  12. Os legisladores devem exigir consentimento declarado para o uso de quaisquer dados pessoais na IA relacionada à saúde

Os acadêmicos do AI Now argumentam com base em dados científicos da psicologia, afirmando não ser possível ter uma leitura completa da emoção de indivíduos apenas pela análise facial.

Outro tópico de destaque na lista é a falta de diversidade na própria área de inteligência artificial. Os cientistas demandam medidas para inclusão de minorias nas empresas de tecnologia. Por conta desse panorama, eles criticam o uso de programas de leitura de emoções por governos e empresas, argumentando que seu uso na área de segurança pública pode reforçar estereótipos raciais e de classe.

A reação da comunidade científica, que problematiza também o uso de dados pessoais e os impactos éticos do rastreio facial, acontece no momento em que o mercado de reconhecimento de emoções gira em torno de US$ 20 bilhões e continua a crescer. "Precisamos exigir a divulgação pública das parcerias, contratos e aquisições público-privadas de tecnologia e debatê-las", afirmam os cientistas no documento.

SIGA TILT NAS REDES SOCIAIS