Topo

'Máquinas não terão total poder', diz deputado autor de regulação da IA

Martin Meissner (AP)
Imagem: Martin Meissner (AP)

Abinoan Santiago

Colaboração para o UOL, em Florianópolis

02/10/2021 04h00

Aprovado na Câmara dos Deputados na quarta-feira (29), o projeto de lei que regulamenta a IA (Inteligência Artificial) no Brasil mal foi para o Senado e já sofre uma enxurrada de críticas. Para os especialistas, faltam normas mais claras sobre o uso da tecnologia e debates em torno da proposta, de autoria do deputado federal Eduardo Bismarck (PDT-CE).

A Tilt, o parlamentar disse que a intenção era, de fato, aprovar uma legislação focada nos princípios gerais da inteligência artificial. Ele avalia que a criação de mais regras poderia travar o desenvolvimento da tecnologia.

O texto do projeto, que tramitou pouco mais de um ano na Câmara dos Deputados, diz que os softwares de inteligência artificial devem ser construídos respeitando princípios como a dignidade humana, a proteção de dados pessoais, a não-discriminação, a transparência e a segurança dos usuários, mas não detalha na prática como isso será garantido.

"Quando existe o princípio de que não pode discriminar, IA fatalmente vai responder se praticar algo nesse sentido", falou Bismarck.

Apesar da pouca regulamentação, o parlamentar defende que o foco é tirar poder das máquinas e colocar o foco nas pessoas. "Quisemos centralizar o projeto ao ser humano. Ou seja, as máquinas não terão total poder", diz.

A IA é um tipo de programa de computador capaz de interpretar dados, aprender a partir deles e tomar decisões de forma autônoma para cumprir uma determinada tarefa definida pelo seu criador. Com uso dessa tecnologia, por exemplo, a 99 combate aos assédios em corridas pelo aplicativo. Por outro lado, Israel usou a IA para matar um cientista do Irã.

Em resposta às críticas, Bismarck defende que o marco regulatório deve receber outras legislações como complemento e afasta um cenário de insegurança jurídica por conta de uma baixa normatividade.

A intenção da proposta, diz ele, era mostrar que o Brasil está "antenado" e construindo uma lei enquanto a tecnologia ainda está se desenvolvendo.

O que dizem os críticos

"Por ser excessivamente vaga, [a legislação] causa insegurança jurídica, porque, uma vez aprovada, dá margem à diversas interpretações", ressalta Bruno Bioni, consultor na área de regulação e tecnologia e diretor da Data Privacy Brasil. "Isso é ruim para o cidadão e os agentes econômicos desenvolvedores."

Para Bioni, o projeto funciona mais como uma carta de intenções, que não articula ferramentas de governança para se materializar. "Ele diz 'ah, queremos IA segura e para o benefício da população'. Ok, mas como operacionalizo essa intenção? É nisso que o projeto falha."

Bianca Kremer, advogada e professora-pesquisadora na área de direito e tecnologia, ressalta que o risco de travar alguma prática econômica por causa de uma ausência de regulamentação é real.

Segundo ela, o grande problema que as grandes empresas de tecnologia enfrentam no longo prazo, depois de 10 ou 20 anos, não é o desenvolvimento de produtos, mas os riscos e as vulnerabilidade que a não-regulamentação ao longo da trajetória acarretou. "É isso que causa uma série de violências, como de gênero ou de raça", exemplificou.

A advogada vê chances de a matéria sofrer ações de inconstitucionalidades se continuar tratando a culpa de forma subjetiva em relação a eventuais danos da IA ao usuário, pois prejudica a reparação por danos.

"Só vai haver responsabilidade por danos causados se existir comprovação de culpa por parte do desenvolvedor. Tratar dados pessoais é uma atividade de risco e as empresas o assumem pelo lucro, independentemente dos danos causados", concluiu.