Guerra 2.0, o futuro chegou

Novas tecnologias mudam a lógica dos conflitos e exigem a revisão dos tratados, mas poucos estão a fim

Rodrigo Trindade De Tilt, em São Paulo
Felipe Nunes/UOL

Um drone programado para reconhecer certos perfis e atirar. Uma máquina controlada remotamente que luta guerras a milhares de quilômetros de distância. Um ataque hacker que acaba com a luz de hospitais e derruba a energia de uma base militar, e a resposta a isso é feita com armas nucleares. Soldados equipados com óculos de realidade virtual que detectam o inimigo.

Até ontem tudo isso era só ficção, mas já chegamos nesse ponto dos avanços bélicos. Estamos falando de uma série de novos recursos tecnológicos cujos usos ainda serão experimentados e em contextos onde ainda não há regras específicas —o que dificulta, por exemplo, que países saibam o que é um ataque (e o que merece retaliação).

Os fóruns onde essas novas armas deveriam ser discutidas são estruturalmente incapazes de lidar com a "evolução exponencial" das aplicações militares. E, enquanto soluções não surgem, o cenário é de caos.

Máquinas inteligentes substituem os soldados

Nem sempre a tecnologia de ponta andou lado a lado com as forças armadas. Em "Sapiens", o historiador Yuval Noah Harari conta que até o século 19 as revoluções militares eram produto de mudanças organizacionais, não de inovação tecnológica. Os chineses, por exemplo, descobriram a pólvora e sequer pensaram nela como um recurso militar, então demorou 600 anos para que ela fosse adotada em canhões.

Desde então essa ligação foi se estreitando rapidamente até que chegamos na encruzilhada em que estamos hoje: as máquinas inteligentes tomam cada vez mais o lugar dos humanos em embates pensados para acontecer entre soldados, tanques e caças.

Quer um exemplo? Em fevereiro, o exército americano chamou indústria e academia para "desenvolver tecnologias de aquisição autônoma de alvos, que serão integradas com tecnologia de controle de tiros, com o objetivo de providenciar veículos de combate terrestre com a capacidade de adquirir, identificar e engajar com alvos até três vezes mais rápido do que o processo manual".

Houve um chamado também por empresas capazes de construir mísseis com inteligência artificial para selecionar seus alvos sem intervenção humana.

Tudo isso quer dizer que os EUA investem pesado em usar visão computacional, inteligência artificial e aprendizado de máquina para criar sistemas capazes de escolher um alvo e atirar. Sim, uma máquina que saiba matar sozinha.

No discurso oficial, essas máquinas nunca farão algo sem "níveis apropriados de julgamento humano no uso da força", mas quem define os limites para isso?

Debate sobre arma que mata sozinha patina

Assustou? Saiba que você não está sozinho. Grupos já se articulam para evitar que isso vire uma realidade. Um dos principais é o "Stop Killer Robots" [Parem os robôs assassinos], campanha da Human Rights Watch, organização internacional de direitos humanos. A ONG aponta que seis países estão avançados no desenvolvimento de armas que atiram sem um humano por trás: EUA, China, Rússia, Reino Unido, Israel e Coreia do Sul.

"Sabemos, por experiências prévias que, mesmo que um punhado de países esteja envolvido no desenvolvimento [dessas armas], não vai parar ali. Elas vão se proliferar e chegar inclusive a países e até a grupos não estatais", afirma Mary Wareham, coordenadora da campanha.

Ela fez o primeiro alerta e começou a pressão por leis que proíbam o desenvolvimento, a produção e o uso desses sistemas letais autônomos —para os íntimos, LAWS (da sigla em inglês para lethal autonomous weapons systems)— em 2012, quando seu primeiro relatório sobre o tema publicado.

Desde então, os debates avançaram pouco e só costumam receber atenção pela pressão de movimentos ativistas, especialmente porque quem fabrica e investe nesse tipo de arma não está muito a fim de conversa. O tema até está em discussão no Conselho de Direitos Humanos da ONU desde 2013, quando foi introduzido pelo Paquistão, mas pelas regras da casa só pode ficar no campo das deliberações durante o mandato atual.

Poucas armas foram proibidas até hoje, porque armamentos têm complexos industriais, tecnológicos e interesses por trás. Eles dizem claramente e não escondem de ninguém que não apoiam um instrumento internacional juridicamente vinculante que proíba ou restrinja o desenvolvimento dessas armas [LAWS]

Guilherme Patriota

Guilherme Patriota, embaixador representante especial do Brasil junto à Conferência de Desarmamento em Genebra e presidente do grupo de peritos da ONU (Organização das Nações Unidas) sobre segurança cibernética

As regras da guerra

Embora, na prática, isso nem sempre seja levado a sério e sirva mais como futura punição para os perdedores, o que vigora hoje é a Convenção de Armas Convencionais da ONU (com adendos de outras declarações), que prega o uso de armas respeitando o direito humanitário. Ou seja:

  • a distinção entre combatentes e civis
  • o respeito à bandeira da Cruz Vermelha
  • a proteção a feridos, doentes e prisioneiros de guerra
  • a proibição da tortura e outras formas de punição consideradas desumanas

Armas restritas

  • Fragmentos não-detectáveis

    São proibidas armas que causam ferimentos ao corpo com fragmentos não-detectáveis por raio-x, por serem de difícil remoção e causarem sofrimento desnecessário.

  • Minas terrestres e armadilhas

    A convenção restringe alguns usos de minas terrestres e armadilhas e estabelece regras para proteger civis e limitar armamentos a zonas de conflito.

  • Armas incendiárias em civis

    Bombas químicas, como o napalm, são proibidas contra civis e seus bens, mas não contra alvos militares. Ataques assim devem vir junto com medidas para evitar danos colaterais.

  • Armas cegantes a laser

    Desde 1998, estão proibidas as armas a laser projetadas para causar cegueira. Elas não podem ser usadas em nenhum contexto, nem para fins militares.

  • Restos explosivos de guerra

    Os países são responsáveis pela limpeza da munição não detonada em conflitos, uma regra que tenta diminuir impacto posterior das armas em civis

  • Outros

    Outros tratados limitam o uso de projéteis com menos que 400 g, balas que expandem ou achatam no corpo, armas químicas e biológicas e munição cluster

Corrida armamentista entre China e EUA

Enquanto a comunidade internacional segue a passos lentos e pouco dispostos na busca por novos limites, quem tem esse tipo de tecnologia avança vorazmente. A China, por exemplo, enxerga na inteligência artificial uma janela para se aproximar dos Estados Unidos em termos de poderio militar.

"Existe uma percepção de que apenas investindo em defesa tradicional a China dificilmente superará, ou chegará perto, da capacidade militar americana nas próximas décadas. Há um projeto de pular um estágio para desenvolver tecnologias mais sofisticadas nesse âmbito, onde os EUA ainda não lideram com tanta folga como é o caso das tecnologias tradicionais, como porta-aviões", conta Oliver Stuenkel, professor de relações internacionais da FGV (Fundação Getúlio Vargas).

E, ao saber que os chineses estão aprimorando seus sistemas de inteligência artificial, o governo norte-americano tem a desculpa perfeita para despejar recursos na pesquisa de suas próprias ferramentas inovadoras, o que estimula uma nova corrida armamentista movida a máquinas cada vez mais inteligentes e autônomas e que leva juntos as gigantes de tec.

Meio que não há limite para o dinheiro que os EUA e o Pentágono, jogam no setor tecnológico no momento

Mary Wareham

Mary Wareham, coordenadora da campanha Stop Killer Robots

Projetos envolvem Google, Amazon e Microsoft

Um contrato recente do Pentágono mostra bem quanto dinheiro o Departamento de Defesa americano tem para jogar na iniciativa privada atrás de novas ferramentas. O chamado Project Maven virou notícia em 2018 quando funcionários do Google fizeram um mega protesto após descobrirem o acordo da empresa com a área militar dos EUA, que previa o desenvolvimento de uma inteligência artificial capaz de reconhecer objetos nas filmagens feitas pelas câmeras de drones militares.

"Fui contatada por funcionários do Google em Zurique, Berlim, Gana... de todo mundo, não só a matriz do Google na Califórnia. E eles diziam: 'por que estou trabalhando para uma empresa multinacional que tem relação com as forças armadas de um país?'", lembra Wareham.

O projeto nem renderia tanta grana ao Google, mas era visto por executivos como um caminho para ganhar um contrato bilionário de serviços de computação na nuvem para o Pentágono. A pressão interna fez com que a empresa deixasse os dois projetos, mas se engana quem acha que não há gigantes da tecnologia na disputa: Microsoft e Amazon são as concorrentes.

A Microsoft, por sua vez, ganhou US$ 480 milhões para fornecer 100 mil óculos HoloLens. Com eles, soldados usarão visores para detectar alvos com precisão para poderem atirar mais rápido —o próximo passo é remover o humano da equação. (Sim, bem Black Mirror, capítulo S03E05: "Engenharia Reversa")

Já o Project Maven continua com empresas como a startup Anduril Industries, que desenvolve um sistema de realidade virtual que providencia uma visão virtual do front militar a soldados, dá a habilidade de identificar alvos e direciona veículos militares não-tripulados ao combate.

Para os críticos, a disseminação de recursos desse tipo traz como risco o fato de que países passem a tomar menos cuidado para iniciar um conflito.

Há uma preocupação com a redução do limiar de conflito, com a geração de condições de maior instabilidade e insegurança internacional. Uma ameaça à paz, até. Por isso, é manter o ser humano no circuito

Guilherme Patriota

Guilherme Patriota

Para países como os EUA, que usam essas novas tecnologias, o custo humano para engajar nesse tipo de conflito é muito menor. Isso também muda o cálculo da lógica que faz um país entrar em guerra ou não

Oliver Stuenkel

Oliver Stuenkel

IA em campo traz menos danos colaterais

Claro que as potências militares querem sempre se manter à frente dos demais, mas elas argumentam que o uso de recursos de inteligência artificial em suas forças armadas é positivo —e elas não estão completamente errados. Como qualquer outra tecnologia, a inteligência artificial tem usos bons e ruins. É por esse motivo, segundo Mary Wareham, que a campanha Stop Killer Robots é bem específica em seu pedido.

A automação já é usada por forças armadas para fazer trabalho sujo, chato e perigoso: lavanderia, limpeza das laterais de navios e envio de robôs de desmonte de bombas, respectivamente. A ideia, dizem os EUA, é usar os sistemas autônomos letais também para evitar erros humanos, já que os soldados são menos confiáveis, menos precisos, estão sujeitos ao cansaços e até a problemas psicológicos.

Eles ainda afirmam ter critérios próprios, uma espécie de autorregulamentação, que faria com que esses sistemas respeitassem o direito humanitário melhor do que um combatente humano. Mas esse é um dispositivo retórico das potências militares que não se sustenta, visto que as tecnologias de reconhecimento de imagem atuais, fundamentais para um eventual sistema letal autônomo, são comprovadamente imprecisas e apresentam até tendências racistas.

Caminho é exigir controle humano

Quem não tem o conhecimento e os recursos para desenvolver tecnologias de inteligência artificial capazes de gerar um sistema letal autônomo tenta fazer com que elas parem de avançar, mas há diferentes abordagens para tentar emplacar alguma legislação do tipo. A Stop Killer Robots tem uma posição "extrema": a proibição por lei desses sistemas.

"Não ficaremos satisfeitos com princípios sobre inteligência artificial, declarações políticas, discussões de melhores práticas. Tudo isso pode parecer útil, mas é uma perda de tempo quando você está olhando para o que um futuro com robôs assassinos irá trazer", argumenta Wareham.

O Brasil às vezes, radicaliza seu discurso na linha do que pede a ONG, mas está mais de acordo com o que defende a Cruz Vermelha: a obrigação de "controle humano significativo". Essa flexibilização é parte de uma negociação política necessária para que haja progresso nos debates sobre o tema, explica Guilherme Patriota, que considera que uma declaração política conjunta é um bom começo. Um posicionamento irredutível a favor de um tratado e da proibição não faz o debate avançar.

"Junto a Áustria e o Chile, fizemos uma proposta (em agosto de 2018) de uma emenda para que no próximo período proponhamos um mandato um pouco mais incisivo, que sugira considerar a negociação de um protocolo à convenção que assegure a obrigação que haja uma intervenção, controle, humano significativo em qualquer uso de sistemas de armas letais autônomas", conta.

EUA responderiam ataque hacker com ataque nuclear

Enquanto diplomacia e movimentos sociais tentam se antecipar ao robô assassino, poucos olham para outro campo: o do mundo cibernético, que também carece de novas regras. Hoje vemos que os ataques de cibercriminosos têm potencial para causar enormes danos materiais e até colocar vidas em risco.

Quando se trata de um grupo independente, é mais fácil enquadrar seus membros como bandidos virtuais que merecem ser presos. Mas o que acontece quando o autor de um ataque é parte das forças armadas de um país? A resposta é espinhosa e vai depender de quem é o alvo, o que gera uma instabilidade perigosa.

"De repente você pode ter uma escalada de crise e o país nem sequer considerava uma ação como hostil como um outro país, porque não existe essa concordância mútua sobre que tipo de ação representa um ato de guerra ou não", afirma Oliver Stuenkel.

Qual é uma resposta digna a um ciberataque? Segundo a última postura nuclear emitida pelos EUA, a reação pode chegar a uma ofensiva com armas nucleares, se a infraestrutura elétrica ou de comunicações do país for afetada por hackers a ponto de causar mortes.

Os maiores ciberataques da história

  • Stuxnet (2010)

    Ataque conjunto ligado a EUA e Israel que resultou na falha de centrífugas em uma instalação de enriquecimento de materiais nucleares do Irã, sem que operadores notassem o problema nos sistemas de controle industrial do local.

  • NotPetya (2017)

    Ferramenta chamada NotPetya criptografava os dados de computadores-alvo e inutilizava-os. Ligado à Rússia, malware foi disseminado por um software de declaração de impostos na Ucrânia.

  • Wannacry (2017)

    Malware criado para criptografar dados de redes que usassem Windows. O objetivo era receber dinheiro de "resgate", com a entrega da chave para que redes voltassem ao normal. Foi ligado à Coreia do Norte.

  • Shamoon (2012)

    Malware apagou dados de 35 mil computadores da empresa petrolífera Saudi Aramco, da Arábia Saudita. Senhas foram roubadas, dados apagados e PCs não reiniciavam. Ataque tem ligações ao Irã.

As bases para guerra cibernética estão criadas

A possibilidade de uma reação nuclear a um ataque virtual é um cenário extremo e - ainda bem - não realizado. Mas isso ilustra como países enxergam os graves riscos que ferramentas cibernéticas trazem à segurança nacional.

Assim como no caso dos sistemas letais autônomos, Estados Unidos, Rússia e China estão entre os líderes em "armas" virtuais, acompanhados de Israel e Reino Unido. Adam Segal, diretor do programa de políticas digitais e de ciberespaço do think tank Council on Foreign Relations, ainda coloca franceses e alemães como outras potências, em termos de recursos e capacidades.

Nenhuma dessas potências atacou a outra, mas os EUA já detectaram a presença de hackers russos em sua infraestrutura crítica —usinas geradoras de energia, sistemas de transmissão elétrica ou de distribuição de água. Os russos têm a capacidade de desligar o fornecimento de energia a milhões de americanos, se assim quiserem. Em uma reação digna de Guerra Fria, os americanos intensificaram as ações cibernéticas nas redes russas e estão prontos para causar os mesmos danos, se necessário.

O gênio já saiu da lâmpada. Os EUA já tinham admitido que estavam nas redes da China e da Rússia. Isso vai continuar e sugere que a responsabilidade agora é dos estados para determinar quais são as regras, para que haja pelo menos algum tipo de previsibilidade para que não haja escalada.

Adam Segal

Adam Segal

Internet das coisas abre novos campos de batalha

Vale dizer que um hacker qualquer não vai ser responsável por grandes ataques. "A habilidade de desligar um sistema elétrico ou causar destruição física está, neste momento, limitada a estados-nação", afirma Segal. Mas o mundo está migrando para uma nova fase tecnológica com a chegada do 5G e a promessa de milhares de novos aparelhos conectados à internet.

Quando semáforos, carros e outros aparelhos funcionarem em sintonia com a rede, aquele potencial destrutivo antes limitado a ferramentas estatais tem tudo para cair em mãos indevidas. E aí as armas cibernéticas causarão danos que sequer conseguimos imaginar.

O especialista do Council on Foreign Relations cita como exemplo o ataque à Sony Pictures, em 2014, realizado pelo grupo hacker Lazarus, com ligações à Coreia do Norte. Quem apostaria que uma ofensiva bancada por um país e direcionada a uma produtora de filmes iria acontecer?

O direito humanitário vale para ciberataque? Não muito

Não existe uma lei que diga o que um estado pode fazer caso deseje revidar um ataque cibernético, mas países como Estados Unidos argumentam que o direito internacional também se aplica ao ciberespaço.

"Não é sempre claro como você faz isso na realidade, mas ainda te dá algumas orientações", explica Segal. "Ainda há muita ambiguidade e incerteza. Você poderia, talvez, entrar em um sistema energético elétrico, mapeá-lo, mas não interferir nele, ou atacá-lo."

Para Kai Michael Kenkel, professor do Instituto de Relações Internacionais da PUC-RJ, por ter uma tendência a afetar civis, o ataque cibernético viola as distinções entre combatentes e não combatentes. "É necessário que as convenções que regem o direito internacional para os conflitos armados tenham uma atualização para lidar com essas tecnologias", argumenta.

Essas atualizações só virão se houver apoio e um certo nível de consenso internacional, o que é difícil dada a proliferação destes recursos cibernéticos.

Segal acha que é mais viável que os países entrem em acordo sobre "ações colaborativas e cooperativas" contra eventuais violadores das regras. Para isso também é preciso pressão popular —só que ataques estatais de hackers não mexem com a imaginação coletiva da mesma maneira que um robô assassino.

Drones avançam sobre nossas cabeças

Outro lugar de discussão é o céu: os drones se espalham pelas zonas de conflito sem regulações internacionais. E aqui não falamos daqueles drones testados para fazer entregas ou funcionar como táxi-aéreo.

A batalha por regras específicas para dispositivos como drones ou ataques cibernéticos foi perdida. Há anos que veículos não tripulados participam de zonas de guerra e o número de ciberataques internacionais disparou nos últimos anos. Patriota conta que esses dispositivos são raramente debatidos em Genebra: "quando você tenta entrar há uma grande rejeição, uma reação dura de um grupo importante de países".

Os drones de combate até podem ser enquadrá-los como armas leves, mas uma tentativa de restrição nesse sentido fracassou. Ao contrário das outras tecnologias citadas, as armas voadoras já são um instrumento de guerra que é promovido como preciso —mesmo papo usado para defesa dos sistemas letais autônomos.

A realidade não é tão bonita assim: em abril, os Estados Unidos admitiram, de forma inédita, que ataques aéreos feitos por drones na Somália mataram dois civis —uma mulher e uma criança.

Não queremos tornar o mundo mais instável, menos seguro e pacífico. Não queremos que a competição por armas, que podem ser muito mais eficazes, facilite a guerra

Guilherme Patriota

Curtiu? Compartilhe.

Topo