Vigilância do bem existe?

Para VP da NEC, só novas regras nos salvarão de sistemas dignos de ficção científica

Rodrigo Trindade De Tilt, em São Paulo

É fácil dizer que a tecnologia avança a passos largos ao que é retratado de forma apocalíptica pela ficção científica (alô, Black Mirror). A analogia mais óbvia está nos sistemas de vigilância —aquela história de as empresas te conhecerem mais que você mesmo e de tecnologias nos identificarem com reconhecimento facial e inteligência artificial. A japonesa NEC já fez de tudo um pouco em seus 120 anos de história, mas agora está entre as líderes globais em softwares de identificação por biometria. Michael O'Connell, vice-presidente de governo e segurança pública da empresa, sabe de todas as preocupações que cercam o uso das tecnologias voltadas para a segurança, mas tenta descontsruir esse medo.

Ele, que já trabalhou no governo britânico e na Interpol, acredita que um "final feliz" é possível, contanto que a sociedade se engaje em debates para ajudar a estabelecer os limites para essas tecnologias.

Tecnologia a favor das forças policiais

O'Connell integra a NEC desde maio de 2018, mas, muito antes de entrar em uma empresa de tecnologia, ele viu o quanto inovações técnicas contribuíram para seu trabalho em forças policiais. O britânico atuou por 23 anos no governo de seu país no setor de segurança pública e viu de perto a evolução das ferramentas de inteligência e investigação contra riscos e ameaças, como crime organizado e terrorismo. Mal havia digitalização de documentos ou qualquer princípio de inteligência artificial e aprendizado de máquina. Ele acompanhou toda essa migração do analógico para o digital, que começou com o armazenamento de montes de informações — sem muito critério de como elas seriam utilizadas — e a saída dos telefones fixos para os celulares.

Com as novidades, vinham novos problemas. Os dados pessoais armazenados pelas forças policiais passaram a ser analisados por recursos de inteligência e algoritmos, ao mesmo que aumentou a preocupação com a segurança dessas informações e com novas tecnologias de comunicação (celulares e internet) caindo na mão de criminosos.

Os atentados de 11 de setembro foram divisores de águas, diz O'Connell. A partir dali, os governos passaram a usar a tecnologia para coletar, armazenar, analisar e compartilhar dados e todos os processos de polícias foram repensados para melhorar a atuação. Foi neste contexto que ferramentas tão faladas hoje, como a criptografia, ganharam força, assim como a necessidade de tornar o ambiente digital, não só o físico, seguro.

O executivo reconhece que há dificuldades em manter um equilíbrio entre o respeito à privacidade e a necessidade de governos obterem dados de seus próprios cidadãos para a manutenção da segurança. Atuando na esfera privada, ele diz que busca orientar sobre boas práticas de regulamentação, além de definir os princípios éticos seguidos pela NEC na hora de vender serviços para governos —pois, defende ele, novas tecnologias de vigilância nas mãos erradas são dignas do Grande Irmão de 1984.

Privacidade x interesse público

Tilt: Do ponto de vista do estado, como você equilibra o direito à privacidade com os interesses nacionais?

Michael O'Connell: Não existe um código preciso para isso. Existem modelos regulatórios e políticos que você pode adotar, personalizados a partir de regras nacionais ou regionais, calibrados de acordo com pressões políticas, interpretações de direitos humanos e de liberdade de expressão. Eles serão codificados em torno do que é percebido como uma ameaça local e nacional, de acordo com tolerância da população ao comportamento do estado a policiar essas comunidades — e quão segura a comunidade quer ser. Dentro de tudo isso, você terá medidas diferentes. Não há harmonia fácil nisso, o que pode levar a algumas inconsistências significativas e a oportunidades percebidas ou realizadas de abuso ou conduta exagerada dos estados.

A ONU e outros então tentam trazer algumas interpretações comuns, como decência e valores universais, respeito à lei, os limites e as responsabilidades do estado. E, importante, as liberdades e os aspectos de direitos humanos em meio a tudo isso. Você espalha normas internacionais e muitos países subscrevem a elas, mas não todos. Alguns não estão dispostos a serem expostos e responsabilizados, preferem ser responsabilizados pela população local. É um cenário muito complicado, mas é geralmente assim que isso evolui nesses contextos.

Tilt: A tecnologia tem sido usada contra protestos, como os que ocorreram em Hong Kong, Santiago e Quito [no final de 2019]. Como ela deve ser usada em situações como essas?

Michael O'Connell: As redes sociais criaram a oportunidade de gerar encontros em massa de uma maneira diferente do que ocorria no passado. Você é capaz de mobilizar pessoas rapidamente, como nos flash mobs. Dá para juntar indivíduos de mentalidade parecida, sem relação prévia, numa localização precisa. Você galvaniza, engaja e estimula pessoas em torno de uma causa, que pode ser política.

Dificuldades surgem quando isso passa do limite de um protesto calmo e democrático para episódios de violência, intimidação e possível terrorismo. A polícia e o estado devem entrar para monitorar as reuniões desses cidadãos, para identificar os protagonistas, a tendência de estado de espírito, a informação que está estimulando [o protesto], se é precisa ou errônea.

Mas, nisso você se vê diante de uma "mentalidade de rebanho", na qual as pessoas ficarão exaltadas e responderão como um grupo. Se a polícia entra em jogo, para tentar controlar, pode haver uma eclosão e todos ficarem exaltados, pois a "mentalidade de rebanho" é uma faísca para comportamentos realmente extremos... É difícil.

Vigilância se resolve com regulamentação?

Tilt: Mas com câmeras combinadas com softwares de inteligência artificial, quase qualquer país pode montar um sistema de vigilância que lembra aqueles da ficção científica. Como você analisaria o sistema que o governo chinês construiu, o mais criticado deles?

Michael O'Connell: É sabido que a China faz uma interpretação diferente das normas do direito e da projeção de um comportamento que o estado faz na sociedade. Outros devem julgá-la, não eu. O que é importante destacar é que tecnologias como as produzidas pela NEC — e outros — agora são bem sofisticadas. No passado, você usava um sistema de CCTV (circuito fechado de televisão, da sigla em inglês), basicamente uma câmera plugada num dispositivo de gravação. Dava para voltar e analisar algum evento passado para entregar algum valor. Um uso ativo desses sistemas passivos era para gerenciar trânsito ou protesto de ruas.

Agora esses sistemas ganham uma segunda vida e são enriquecidos com outras capacidades sensoriais, que criam uma dinâmica totalmente diferente e ativa. É isso que preocupa as pessoas. Você não está trazendo apenas novas tecnologias para um ambiente público, mas está perfilando e usando velhas tecnologias em conjunto com as novas. Sempre haverá um julgamento por trás disso, se é bom, ruim ou indiferente.

Tilt: Você enxerga um problema nisso?

Michael O'Connell: A tecnologia foi deixada à sua própria evolução. Todo mundo busca as melhores especificações e acurácia, isso é natural. Mas está sendo feito em um ambiente que não foi necessariamente regulamentado ou qualificado. É um pouco como aconteceu com a internet: ela foi estabelecida, cresceu e se proliferou. Depois houve pânico e tentamos colocar alguns controles em torno dela.

Está ocorrendo o mesmo com algumas dessas tecnologias de ponta. Elas são vistas como formas de vigilância, controle e invasão de privacidade, mas têm uma série de benefícios. Chegamos a uma situação onde há necessidade de regulamentação, de entender o que as tecnologias fazem e quão precisas são, e de descobrir sob que padrões nós gostaríamos de operar.

Tilt: Qual o caminho que você considera apropriado para a regulamentação?

Michael O'Connell: A sociedade, as autoridades e a indústria precisam se unir para, primeiro, entender a tecnologia e o que ela pode fazer; segundo, tomar uma decisão sobre quais serão os limites e padrões dela; e, terceiro, garantir que haverá transparência — isso é algo que sempre defendemos — e um uso qualificado, para que a tecnologia derive valores e benefícios sociais.

Sempre haverá estados e eventos em que essa tecnologia será usada de uma maneira que será desaprovada por uma parte grande da população local. Isso é algo que precisamos lidar no nível local, estatal. No nível federal, os padrões precisam refletir contextos globais, pois essas tecnologias têm impacto direto por todo o mundo, ainda que as pessoas tenham interpretações distintas sobre elas. Onde houver preocupações mais profundas, há mecanismos como a ONU e outras instituições que providenciarão uma visão e interpretação e farão lobby, ou colocarão pressão, em sociedades onde eles acreditarem que a tecnologia pode estar sendo usada de uma forma inapropriada.

O papel da iniciativa privada na ética

Tilt: Qual o papel da NEC nas discussões sobre regulamentação, nos países onde ela tem contratos?

Michael O'Connell: Essa é a pergunta mais importante que você fez, e falo isso com toda a sinceridade, porque isso nos leva ao motivo de eu ter deixado de trabalhar para o governo e o ramo de policiamento, particularmente no Reino Unido, e ingressar em uma empresa como a NEC. Ela é uma das "casas de tecnologia" que busca mudar seu papel e sua responsabilidade na sociedade. Ela começar a entender que criou todas essas coisas sofisticadas e, agora, precisa adicionar camadas em torno isso. Tentamos promover os valores sociais e a confiança em torno dessas tecnologias.

Como você destacou, elas podem ser usadas incorretamente — nós não queremos que isso aconteça. Queremos que elas sejam usadas na proporção correta para o que ela foi criada, para causar um impacto positivo à sociedade. Nos últimos 18 meses, nós estabelecemos os nossos valores sociais para a corporação e desenvolvemos um nível mais alto de interpretação do papel de liderança que desempenhamos globalmente.

Tilt: O que você quer dizer com isso, na prática?

Michael O'Connell: Trouxemos um time de confiança digital que garante que a corporação, todas suas autoridades e suas tecnologias estão de acordo com um modelo de proporcionalidade e de transparência na maneira que as tecnologias são usadas, respeitando, obviamente, alguns interesses comerciais em torno da propriedade intelectual. [De transparência] com quem nós vamos considerar fazer negócio, como vamos educar potenciais clientes e como vamos garantir que nossas tecnologias providenciem o nível mais alto de precisão possível, ou seja, para que a taxa de erro seja a menor possível se você decidir usar essas tecnologias de uma forma que afete a privacidade e a identificação das pessoas. Ninguém quer ser identificado equivocadamente e estar sujeito a controles ou perturbação de qualquer tipo. É por isso que a NEC gastou tanto tempo trabalhando em um nível tão alto de especificações, tanto no que diz respeito às suas capacidades de detecção e identificação, como reconhecimento facial e de digitais, mas também nas inteligências artificiais, algoritmos e aprendizado de máquina que funcionam no segundo plano, ligam os pontos, aprendem e melhoram a funcionalidade operacional.

Tilt: Qual o seu papel nesse processo?

Michael O'Connell: Sou membro do conselho de diretores do Biometrics Institute [fórum internacional que se deu a missão de promover o uso responsável da biometria de forma independente e imparcial] e tenho colegas que nos dão apoio no time legal de privacidade de digital. Trabalhamos como uma comunidade para tentar promover a ética em torno do uso desses tipos de tecnologias, porque ainda estamos operando em um contexto quase sem regulamentação. Estamos tentando projetar, em vez de uma disputa por menos regulação, uma concorrência pelo melhor no sentido de normas, performance e comportamentos.

Trabalhamos na orientação a governos, organizações internacionais como a ONU, a OMC [Organização Mundial do Comércio] e o Fórum Econômico Mundial, sobre as normas e procedimentos que acreditamos que eles deveriam aspirar a criar. Apoiamos ativamente iniciativas como o GDPR [Regulamento Geral de Proteção de Dados, da sigla em inglês]. Não fugimos disso.

Tilt: Há artigos do GDPR ou outros textos regulatórios existentes que a NEC discorda por serem muito restritivos? Você acredita que o GDPR criou bons parâmetros de como a proteção da privacidade deve ser?

Michael O'Connell: Se você pega o GDPR, ele é, nesse estágio, um modelo regulatório não qualificado. Digo isso porque ele foi prescrito e lançado em um contexto ativo, mas haverá episódios que ele precisará ser desafiado na Justiça. Essa é uma abordagem de direito comum em que casos declarados surgirão e tentarão calibrá-lo. Alguns diriam que é bem arbitrário, que é tosco, e que atrapalha — o que é verdade. E há imposições de custos, tanto na aplicação quanto no caso de violações percebidas ou reais.

Na falta de qualquer outra coisa, ele permite e nos força a olhar profundamente para o ambiente operacional dessas tecnologias e isso não é só para biometria, mas para a aquisição de dados, o uso da internet, o Velho Oeste de exploração de indivíduos, seus estilos de vida, comportamentos, religiões e todas as tentativas de ganhos comerciais ou vantagens a partir disso.

Tilt: Onde você enxerga defeitos no GDPR?

Michael O'Connell: O que nós não queremos, naturalmente, é estar em uma posição em haja superregulação, porque isso vira debilitante a todos, um passo atrás para as oportunidades que podem receber essas tecnologias. Na saúde, há mecanismos para garantir que despersonalizemos as informações, mas podemos coletá-las e usá-las. Se exagerarmos nas regulamentações, algumas dessas oportunidades de criar novos remédios e soluções para nós mesmos e as futuras gerações podem ser minadas.

Temos que ser intuitivos nessa jornada e manter um rigor crítico perpetuamente, mas evoluindo para um modelo regulatório que seja ágil. É um desafio enorme para as autoridades regulatórias, porque elas precisam ser mais rápidas. Elas precisam estar atualizadas.

Compartilhar dados com o vizinho

Tilt: Você define 11 de setembro como um divisor de águas na área de segurança. Quais eram os recursos da União Europeia para troca de informações sobre segurança e terrorismo e como eles evoluíram com novas tecnologias?

Michael O'Connell: No passado, ocorria por meio de telefones criptografados, máquinas de telex e notas diplomáticas. Quando o volume de dados aumentou, esses mecanismos não deram conta. Houve uma mudança na plataforma. Existe, por exemplo, um sistema de nascimentos chamado I247. Ele surgiu na Interpol e permitia comunicação digital segura entre os estados-membro. Então, a Europa podia se comunicar por meio desses canais digitais. Também havia canais bilaterais na comunicação entre embaixadas por meio de redes seguras. Também houve o nascimento da Europol no começo dos anos 2000.

O que motivou a criação da Europol?

Michael O'Connell: Percebeu-se rapidamente que, embora tivéssemos o sistema da Interpol, era preciso uma rede europeia, com um cérebro consolidado para analisar as informações. Nos anos 2000 e no começo dessa década, era tudo sobre a coleta de dados. Depois, percebeu-se que havia todos esses dados disponíveis, então trouxeram a interoperabilidade. Temos todos esses dados e temos que ser conscientes de como os gerimos. Precisamos colocar regras e processos de uma maneira mais forte, esses sistemas precisam ter um botão de "apagar".

Tilt: Pela sua experiência na Interpol, os países hesitam em confiar uns nos outros ao compartilhar dados? O escândalo da NSA complicou esse cenário?

Michael O'Connell: Para relações internacionais, sempre há cuidado na troca de informações mesmo com parceiros de confiança. Pela natureza da informação que eles têm, nem sempre temos uma interpretação comum de risco, política, religião ou cultura. Sempre haverá uma nuance. Uma coisa que podemos estar sempre certos é que sempre haverá vazamentos de informações, não importa quão sofisticados seus sistemas são. Situações como a da NSA continuam a demonstrar esses riscos. Não há uma abordagem uniforme para o compartilhamento de informações mesmo entre os mais próximos e melhores amigos internacionais. Cada estado é obrigado a, em última instância, proteger os seus interesses e proteger seus próprios cidadãos de ameaças de maneiras variadas.

Grandes eventos, grandes avanços

Tilt: Você trabalhou na segurança de Jogos Olímpicos e de Copas do Mundo enquanto esteve na Interpol. Queria saber como era o uso de tecnologia para detecção de ameaças durante esses grandes eventos esportivos.

Michael O'Connell: O sucesso de grandes eventos esportivos internacionais se deve, em parte, à melhor utilização de uma variedade de tecnologias pela polícia. Essas tecnologias são usadas primeiro nos estádios, para ver onde é melhor construir arenas e protegê-las de ataques ou para planejar a infraestrutura de transporte. Depois, vem um grande esforço na integração de dados, porque eventos são geridos por uma variedade de agências e órgãos nacionais e internacionais. Você precisa de várias camadas, idiomas e procedimentos diferentes em andamento ali.

Para ter a capacidade de tomar decisões informadas em protocolos de ação, é preciso coleta de dados, de código aberto ou fechado, e ter o melhor retrato de inteligência para identificar e administrar ameaças e riscos. Isso não diz respeito somente ao criminoso clássico terrorista, mas perturbações climáticas, greves, protestos organizados em redes sociais — é um ambiente operacional dinâmico, extremamente complexo. Você tem que usar tecnologias de ponta para estar apto a entender com facilidade a dinâmica em jogo, pois deixar isso para o cérebro é meio impossível.

Tilt: Enquanto você estava na Interpol, que ferramentas vocês tinham à disposição para investigar?

Michael O'Connell: Uma plataforma digital global que permitia comunicação criptografada em tempo real, coleta, análise e troca de informações, estando a biometria incluída nessa. Não vamos esquecer os atributos físicos: você conta com policiais de todo o mundo trabalhando lá, capazes de entender diferentes codificações, várias línguas e práticas culturais.

Fronteiras do Brasil podem ser melhor protegidas com tecnologia

Tilt: O Brasil é um país continental com fronteiras gigantescas. Como a tecnologia pode ser usada para ajudar a tornar as fronteiras brasileiras mais seguras?

Michael O'Connell: Essa é uma questão muito difícil de responder: não há um remédio perfeito, infelizmente. Você precisa de uma interpretação específica sobre risco, sua tolerância a ele e o que, como estado, você tolera a respeito da fluidez e movimento entre esses contextos de fronteira, para calibrar onde está seu limite. Os tipos de tecnologias e práticas operacionais, de policiamento e alfândega, dependem disso. Uns usam tecnologias remotas para policiar fronteiras massivas, porque você não pode colocar barreiras físicas nestes territórios: é inapropriado e também dificulta a ecologia da região. Se você faz isso, os animais selvagens sofrem.

Você coloca polícia em comunidades, cidades que estão perto da fronteira, e tenta entender quem é a população que mora ali e aqueles que podem ser estrangeiros se mudando. Depois introduz mecanismos para checar e desafiar quem eles são e tentar qualificar a identidade deles. Muitos países não têm programas unificados para isso. Não estou dizendo que todo mundo deveria ter um sistema de cartões de identidade nacional — nós não temos no Reino Unido. Mas a identidade é chave para ter como identificar se você é um cidadão, ou se você é um estrangeiro que talvez tenha alguns privilégios de liberdade de movimento e, se não, deve haver alguns controles sobre você.

Futuro distópico só se e a sociedade deixar

Tilt: Olhando para o futuro, tecnologias de segurança ou vigilância devem evoluir de uma maneira que elas protejam a privacidade de indivíduos e ainda garantam a segurança nacional e internacional?

Michael O'Connell: A tecnologia está aí para providenciar especificações tão altas ou baixas quanto você quiser. Precisa haver, como dissemos, normas, mas isso depende de um debate com a sociedade e com o estado para dizer o que realmente querem. Sabemos que há certas ameaças à nossa comunidade e estado, que gostaríamos que as autoridades tivessem tecnologias para policiar, patrulhar e nos proteger delas. Aceitamos que elas sejam usadas nestes contextos de certa maneira. É tudo sobre o debate.

Topo