Diogo Cortiz

Diogo Cortiz

Siga nas redes
Só para assinantesAssine UOL
Opinião

Regulação de IA no Brasil deixa de lado ponto estratégico para os EUA

Os riscos da IA (inteligência artificial) são os principais argumentos de quem defende uma regulação da tecnologia.. Só que no Brasil, estamos deixando escapar um tema importante relacionado a segurança, vieses e consequências destas novas plataformas.

No ano passado, a Casa Branca apoiou uma competição durante a convenção hacker DefCon para testar os limites dos principais modelos de IA. Imagine você reunir milhares de programadores e especialistas em computação para encontrar vulnerabilidades, falhas e riscos sistêmicos nas principais ferramentas do gênero?

Foi isso que rolou em agosto de 2023, em Las Vegas. Os participantes puderam colocar à prova os principais modelos de IA da OpenAI, Meta, Google e Anthopic para encontrar riscos em diferentes escalas, desde falhas de segurança, problemas de vieses e riscos que aparecem com o uso cotidiano por pessoas comuns, como respostas erradas convincentes produzidas pela máquina.

Essa é uma abordagem chamada 'Red Team', que vem da área de cibersegurança e começa a ser utilizada em projetos de IA. Um time de profissionais especializados é escalado para adotar um papel de 'adversário' do sistema e explora tudo o que pode dar errado com ele, como falhas, brechas e possíveis usos indevidos.

O relatório publicado nesta semana pelos organizadores do 'Red Team' que rolou durante a DefCon no ano passado mostra a importância da estratégia para trazer testes em larga escala para sistemas sensíveis como os de IA. Mais de 2.000 pessoas participaram do desafio e encontraram problemas em diferentes categorias que certamente não seriam identificados apenas pelos engenheiros e cientistas das empresas desenvolvedoras.

É por isso que as principais empresas de tecnologia estão investindo na formação de equipes de 'Red Team' para testar e validar os novos modelos de IA antes de serem disponibilizados ao público. A OpenAI, por exemplo, criou o "Red Teaming Network", que envolve especialistas de diferentes áreas e países para encontrar erros, falhas e desvios de comportamentos da IA antes que os novos modelos sejam liberados.

A prática está ganhando tanta importância como um requisito de segurança que a "Ordem Executiva" de IA do presidente Biden pede que os resultados dos testes feitos pelos 'Red Teams' das empresas sejam compartilhados com o governo federal.

"as empresas que desenvolvem qualquer modelo fundacional que represente um risco sério à segurança nacional, à segurança econômica nacional ou à saúde pública nacional e segurança devem notificar o governo federal ao treinar o modelo e devem compartilhar os resultados de todos os testes de segurança do 'Red Team'. Essas medidas garantirão que os sistemas de IA sejam seguros, protegidos e confiáveis antes que as empresas os tornem públicos."

Esse é um ponto que estamos deixando passar quando discutimos sobre regulação de IA no Brasil - e em muitos outros países. A prática de 'Red Team' não precisa estar restrita às empresas e pode ser um instrumento adequado quando estamos falando de políticas públicas para tecnologias emergentes.

Continua após a publicidade

De maneira prática, precisamos incorporar nas propostas de regulação a ideia de 'Red Team públicos' como mecanismo que nos ajuda a criar um corpo independente e interdisciplinar de pessoas para testar as capacidades, vulnerabilidades e riscos dos modelos de IA a partir da nossa perspectiva linguística e cultural.

A prática de 'Red Team' pode coexistir e ser instrumentos de outras propostas já existentes, como Avaliação de Impacto, mas atua em diferentes níveis e traz uma participação maior da sociedade. É o caminho mais fácil para gerar evidências empíricas sobre os resultados e comportamentos das tecnologias de IA (desenvolvidas no Brasil e no exterior) para que possamos identificar riscos e demandar melhorias de acordo com a realidade brasileira.

Opinião

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

** Este texto não reflete, necessariamente, a opinião do UOL.

Deixe seu comentário

Só para assinantes