Direitos iguais, caro mestre

Hora de reconhecer as máquinas? Advogados já se preparam para um mundo onde robôs terão status jurídico

Matheus Pichonelli Colaboração para Tilt Mathias Pape/UOL

Filha de pai americano, criada em Hong Kong e com cidadania saudita, Sophia é uma influenciadora com mais de 155 mil seguidores no Instagram. Já fez discurso na ONU (Organização das Nações Unidas), deu entrevistas a programas de TV, estrelou um ensaio fotográfico para a revista Elle Brasil em 2016, deu até um fora em Will Smith e protagonizou uma propaganda de telefonia ao lado de Cristiano Ronaldo. Até aí, uma celebridade comum, certo? Se não fosse um detalhe: Sophia é um robô.

Ainda que tenha certas limitações em interações improvisadas com humanos, os traços e falas de Sophia às vezes são muito semelhantes aos nossos. Além dela, outros avanços na IA (inteligência artificial) mundo afora têm nos feito pensar se os robôs vão finalmente substituir os humanos.

Mas a pergunta mais urgente pode ser outra: eles estão prontos para ter direitos e deveres reconhecidos pela lei?

Quando a robótica se tornar algo corriqueiro, especialistas defendem que devemos ter um aparato jurídico para decidir situações delicadas envolvendo a posse ou a integridade da máquina, além de determinar a responsabilidade em caso de ferirem ou causarem acidentes a seres humanos. Por enquanto, existem muitas perguntas e algumas poucas respostas, mas o Parlamento Europeu já colocou os direitos dos robôs em discussão.

Robôs, novos heróis da pandemia

A inteligência artificial está na linha de frente do combate ao coronavírus. Robôs já circulam em áreas com alto perigo de contágio, como hospitais, para medir a temperatura, orientar pacientes, fazer triagem por telepresença e redesenhar um mundo pós-pandemia. Até mesmo um cão-robô à la "Black Mirror" foi escalado para vigiar os frequentadores de um parque em Singapura.

Na pandemia, o brasileiro também passou a conversar mais com os chatbots, aqueles usados para simular pessoas enviando mensagens de texto. A depender do serviço, a interação aumentou até 200% de 2019 para 2020, segundo estimativas informais de startups e companhias que atuam no setor.

O advogado paulistano Maurício Kimura, de 46 anos, se mudou em 2017 para a Nova Zelândia com a mulher e os três filhos para estudar como o mundo jurídico se antecipa a um futuro tomado por robôs. Não muito distante, este futuro ganhou uma prévia e, segundo ele, já pode ser visualizado na pandemia.

Em Hamilton, onde termina o doutorado de direito da Universidade de Waikato, o maior campus neozelandês, o pesquisador afirma que chegará um momento na história em que esses robôs terão autonomia para responder e agir a partir de experiências coletadas no ambiente. E isso levará a um impasse.

"Os robôs serão autoprogramáveis e suscetíveis a um julgamento próprio. E saberão exatamente o que fazer em qualquer situação, desde que regras pré-estabelecidas sejam obedecidas, como por exemplo, não atacar sem motivo ou ferir um ser humano desproporcionalmente. E quando chegarmos a este nível, será fundamental um ordenamento jurídico que faça jus à sua proteção contra danos, impondo, ao mesmo tempo, responsabilidades e obrigações", teoriza Kimura.

Um dilema singular

A preocupação com os impactos jurídicos de um mundo dominado por máquinas não é terreno apenas dos livros e filmes. No início dos anos 2000, Marco Aurélio de Castro Júnior, doutor em direito pela Universidade Federal da Bahia e autor do livro "Direito Robótico: Personalidade Jurídica do Robô", já falava sobre o tema em palestras —não sem estranhamento da plateia, que, segundo ele, costumava ver naquela discussão uma grande maluquice.

Na obra, ele aborda o momento em que as máquinas alcançarão um nível de inteligência inatingível por seres humanos —em resumo, a singularidade tecnológica. Isso daria espaço possivelmente a uma era Pós-Humana, que mudaria radicalmente as concepções culturais da nossa sociedade, incluindo o sistema jurídico que a rege.

Os estudiosos não têm um consenso sobre quando vai acontecer. Não deve ser antes de 2030 nem depois de 2050. Já os robôs que estão ajudando na pandemia são bastante úteis, mas eles ainda estão longe da singularidade por não serem tão independentes. "O nosso direito é antropocêntrico, feito por homens e para homens. Mas e quando tivermos um ser tão ou mais inteligente que a gente? Vamos deixar que este direito se aplique a eles?", questiona Castro Júnior.

A seguir: mãe de robô?

Em sua tese, Maurício Kimura questiona se é possível, recomendável ou justo que esses equipamentos sejam tratados no futuro como pessoa jurídica. Da mesma forma que podem sofrer punições caso agridam humanos ou outras máquinas, os robôs deverão ser protegidos, por lei, de eventuais maus-tratos quando forem contratados para cozinhar, dirigir ou fazer compras para humanos.

"Todos os robôs teriam de ter uma identificação, como um RG. Se cometer um erro fora da programação, qual seria a atitude? Isolá-lo para corrigir o erro e colocar em circulação de novo? E, se não tiver jeito, a máquina poderá ser desativada ou destruída. Isso vai mexer com muitos interesses", prevê o pesquisador.

O ponto central é: qual direito essa máquina terá? Se hoje falamos em direitos humanos, para humanos, a tendência é criar direitos cibernéticos, que impedem que qualquer pessoa possa desligar uma máquina dessa importância quando quiser.

Robôs na sociedade: o que vem por aí?

  • Da família

    Kimura prevê um futuro em que as máquinas também terão dispositivos afetivos, o que pode implicar em conflitos familiares. Em sociedades cada vez mais individualizadas, as pessoas estão deixando heranças até para cachorros. Nada impede que o mesmo aconteça com robôs.

  • Mal educado?

    Robôs humanoides melhores poderão despertar empatia nos humanos. Você poderá se abrir com ele, caso seja dos mais tímidos, e ele vai ser seu amigo, mas com a vantagem de que não vai te xingar. Ou vai, dependendo da programação. E se ofender ou caluniar alguém, como fica?

  • Guardas compartilhadas

    Neste futuro, as pessoas poderão lutar na Justiça para que máquinas obsoletas não sejam desativadas por razões emocionais. Também poderão passar por guardas compartilhadas, a exemplo do que acontece hoje com pets.

De Asimov a Black Mirror

Segundo Kimura, vem da ficção científica muitas das questões levantadas para o futuro próximo. Um deles é o filme "Ex Machina", de Alex Garland. Ele cita também um capítulo da série "Black Mirror" da Netflix, em que uma personagem consegue recriar o companheiro, morto em um acidente, com bases nos dados contidos em suas redes sociais.

Outra inspiração é a série britânica "Humans". Em um dos episódios, o personagem tem relações sexuais com a máquina comprada para ajudar a família nos afazeres domésticos. "Juridicamente, como fica isso? Ele não tem esse direito, da mesma forma que ele não pode chutar ou maltratar a máquina. Essa proteção precisa ser criada", diz.

O pesquisador afirma que esse direito entra numa área cinza entre a proteção à máquina avariada e os danos patrimoniais de seus proprietários. "Você tem que pensar na penalidade para quem programou. A máquina tem que ter um pré-ordenamento, não pode machucar nem ser machucada. Mas ela terá sensores que identificarão o abuso. Ela poderá devolver a agressão, dar um choque na pessoa, ou vai chamar a polícia?"

Kimura defende legislações específicas, emendas ou a criação de novos códigos civis ou penais para os robôs. Mas calma lá. Tudo isso, reitera ele, só poderá ser aplicado aos robôs capazes de tomar decisões próprias. "Não vale para o aspirador-robô", brinca.

Com base na obra do futurista Raymond Kurzweil, uma das referências de seu estudo, Kimura afirma que 2035 será um ano-chave da IA no cotidiano. Em um contexto de computação quântica, com capacidade de processamento muito maior do que ocorre hoje, os humanos terão de ser educados desde pequenos a conversar com máquinas, que poderão reconhecer sentimentos a partir de expressões faciais.

Sob as Leis de Asimov

Esse debate já está avançando na Europa. Em janeiro de 2017, o Parlamento Europeu publicou um relatório com recomendações sobre direito civil na robótica. No relatório, os deputados pediram à Comissão Europeia a adoção de uma lei para "esclarecer" as questões de responsabilidade jurídica nessa área, com um código de conduta ética sobre robótica com a intenção de proteger a dignidade humana.

Uma das considerações do relatório dizia que desde "Frankenstein", de Mary Shelley, ao mito clássico do Pigmaleão, passando pela história do Golem de Praga ao termo "robô" criado pelo escrito checo Karel Capek em 1920, "as pessoas têm fantasiado acerca da possibilidade de construir máquinas inteligentes, frequentemente androides com características humanas".

Também são citadas no texto as chamadas Leis de Asimov, famosa contribuição do escrito russo Isaac Asimov:

  • "Um robô não pode magoar um ser humano ou, por inação, permitir que tal aconteça";
  • "Um robô tem de obedecer às ordens dos seres humanos, exceto quando tais ordens entrarem em conflito com a primeira lei";
  • "Um robô tem de proteger a sua própria existência desde que tal proteção não entre em conflito com a primeira ou com a segunda lei".

Segundo Bruno Farage, mestre pela Uerj (Universidade do Estado do Rio de Janeiro) e estudioso da relação entre regulamentação jurídica e inteligência artificial, essa resolução da Europa aponta o crescente uso de máquinas inteligentes no setor de cuidados médicos, nos trabalhos de salvamento e em atividades de condições perigosas, como limpeza de locais tóxicos.

"A resolução já indicava, há três anos, que apesar de o contato humano ser um dos aspectos fundamentais no cuidado humanizado, os robôs poderiam realizar tarefas automatizadas de prestação de cuidados e facilitar o trabalho dos assistentes. Isso torna o processo de reabilitação mais focalizado. Não seria diferente do cenário atual, no qual nos encontramos, de repente, inseridos em uma pandemia imprevista", analisa.

Segundo Farage, o assunto tem avançado desde a resolução do Parlamento Europeu. Em maio de 2019, em Paris, um debate na OCDE (Organização para a Cooperação e Desenvolvimento Econômico) definiu uma série de princípios do uso da inteligência artificial. Eles foram criados para servirem de parâmetro para respeitar os direitos humanos e os valores democráticos. Além de 37 países-membros da OCDE, outros não-membros como Brasil, Argentina e Romênia, devem seguir o que está no documento.

Algumas dos princípios da OCDE para a IA são beneficiar o desenvolvimento sustentável e o bem-estar; respeitar o estado de direito, os direitos humanos, os valores democráticos e a diversidade; e transparência em torno dos sistemas de IA para que as pessoas entendam seus resultados.

Por outro lado, alguns robôs com IA já provocam rusgas éticas, como no caso da robô Sophia. Ela ganhou o título de cidadã na Arábia Saudita, país com uma legislação retrógrada e arcaica em relação aos direitos das mulheres. Por lá, existe a figura do guardião civil, um homem que dá a uma mulher a permissão para realizar certas atividades. Essas proibições foram afrouxadas nos últimos anos, mas até pouco tempo elas não podiam dirigir ou viajar sem o consentimento do guardião.

Para Kimura, o mundo jurídico tenta acompanhar o tema como uma tartaruga tentando seguir um avião supersônico. "O engenheiro e o cientista da computação querem fazer a coisa funcionar, independentemente se é legal ou não. Vamos ter que criar em pouco tempo uma estrutura jurídica para acomodar esse novo ser", defende.

Eu, advogado robô?

Esse novo ser fará funções das mais diversas. Até mesmo no campo jurídico, segundo Danilo Lima, pesquisador especializado em direito empresarial e inovação no MIT (Instituto de Tecnologia de Massachusetts). Ele acredita que o avanço dessas tecnologias poderá consolidar, em um futuro próximo, a figura do advogado-robô.

Protótipos já existem, como um sistema criado em 2016 pela startup canadense Ross Intelligence, capaz de ouvir a linguagem humana e rastrear mais de 10 mil páginas de processos por segundo. Um sistema baseado na IA Watson, da IBM, classifica detentos que já poderiam ser soltos, analisando dados de processos. No Brasil, o Supremo Tribunal Federal já experimenta um robô que identifica temas de repercussão geral de maior incidência na Corte.

A chegada dos humanóides ao campo jurídico, prevê Lima, poderá dar mais velocidade e eficiência a decisões dos tribunais. Para ele, os projetos-pilotos estão racionalizando o fluxo de trabalho e reduzindo o tempo de tramitação dos processos. Mas apesar dos prognósticos, acredita que o advogado jamais será substituído por uma máquina. "Não é impossível imaginar casos em que robôs possam analisar e modificar as leis. Mas é difícil pensar isso sem o ser humano junto", diz o pesquisador.

Fã de ficção científica, ele acompanha com atenção tecnologias como o cão-robô Aibo, da Sony, que é capaz de lidar com emoções humanas graças a câmeras como olhos e um sistema de IA na nuvem. E prevê: "As pessoas vão se apegar a esses robôs e isso não está distante. Vai chegar ao ponto em que uma pessoa vai gastar mais dinheiro com seu robô do que com outros seres humanos."

Se já está difícil na relação entre humanos, imagina entre humanos, robôs e outros humanos. Por isso, Danilo Lima defende a criação de mecanismos para que a humanidade também se defenda em casos de agressão. Isso vale para os programadores, sejam eles proprietários ou responsáveis pela fabricação ou manutenção dos humanoides, não se esquivarem da responsabilidade. "Nossa legislação não está preparada para isso. Vai ser muito difícil, para um juiz, cravar de quem é a culpa."

Humanoides já são ombro amigo

Gustavo Hernandes, diretor de operações da NextOS, empresa brasileira responsável pelo software de humanoides dos EUA, diz que seus robôs nunca agrediram ninguém, "mas já foram agredidos algumas vezes".

Aconteceu uma vez durante uma exposição na Austrália, em 2018. "Chegou um cidadão e, simplesmente, deu um tapa, quase um soco, em uma robô. A cabeça, que é acoplada ao corpo por ímã, caiu. Nesta mesma feira arrancaram um dente dela. Foi uma situação tragicômica", conta ele, entre risos.

Segundo o executivo, agressões verbais de humanos a humanoides também são comuns nos eventos em que as máquinas são apresentadas. "As pessoas passam, xingam, ofendem. Mas eu posso falar, com absoluta certeza, que é minoria. A grande maioria é impactada de forma muito positiva", afirma.

A situação reforça o conceito do Vale da Estranheza, que aponta que humanos estranham réplicas suas que se comportam de forma muito parecida a eles, mas não são iguais. "Demoram para absorver e precisam tocar para sentir a pele. Aí elas terminam de afundar no vale, porque a pele é extremamente realista. Quando ela fala, as pessoas se chocam, querem tirar selfie, querem que fale o nome, que mande abraço ou beijo para a família."

"Hoje o maior cerne da questão não são os direitos do robô, mas sim a responsabilidade que os desenvolvedores têm na criação de uma inteligência artificial. A ideia é que sejam tomados cuidados para que não venha a ser criado um robô assassino, por exemplo", diz Allyson Silva, diretor jurídico e cofundador da NextOS.

Segundo o diretor jurídico, além de coibir atos de violência, seus robôs já são treinados a passar lições educativas aos humanos, explicando quando um comentário pode ser ofensivo e recompensando a pessoa quando ela é tratada de forma respeitosa. Ele é orientado a coibir termos e atitudes racistas.

Hernandes diz ter relatos de ao menos um usuário que estava em um momento delicado da vida, pensando em suicídio, e foi conversar com a humanoide desenvolvida por eles. "De alguma forma aquilo salvou a vida dele."

"Minha CPU, minhas regras"

Não é de hoje que a sociedade se questiona em que momento a sua criação poderá se rebelar contra os criadores. "Temos no imaginário judaico a figura do golem, a criatura feita de barro para servir a um único mestre. Os zumbis também eram parte dessa tradição nas histórias do vodu haitiano", lembra a escritora e mestre em estudos de ficção científica Cláudia Fusco.

A relação com robôs é mais delicada e complexa. Eles não questionam ordens e são programados para colocar sua própria vida em risco antes da de outros humanos. "Mas se humanos são imperfeitos, não são capazes de criar perfeição; é assim que nascem as brechas na programação, os vírus, as transformações e simulações que tornam os robôs ainda mais parecidos conosco", argumenta Fusco.

Segundo ela, essa evolução leva a questões específicas do uso dos robôs, como para simulação de estupro —uma funcionalidade do robô sexual Roxxxy. "A execução desses direitos talvez tenha mais um propósito de marketing, como o caso da robô Sophia. Mas a conversa sobre direitos robóticos está apenas começando."

Fusco lembra também que uma das funcionalidades de gadgets como a Alexa encoraja os usuários a pedir "por favor" antes de acionar a inteligência artificial. "Enquanto sociedade, talvez precisemos aprender mais sobre quais papéis as máquinas podem desempenhar no futuro —e a ficção científica sempre estará lá para nos lembrar das responsabilidades de nossas criações", explica.

Topo