Guerra 2.0 chegou

Novas tecnologias mudam a lógica dos conflitos e exigem a revisão dos tratados, mas poucos estão a fim

Rodrigo Trindade De Tilt, em São Paulo Felipe Nunes/UOL

Um drone programado para reconhecer alvos e atirar automaticamente. Ataques hackers que acabam com a luz de hospitais e derrubam a energia de uma base militar. Soldados equipados com óculos de realidade virtual que conseguem detectar o inimigo sem dificuldades.

Parece filme de ficção, mas já chegamos nesse ponto dos avanços bélicos. Estamos falando de uma onda de recursos tecnológicos que será experimentada em contextos onde ainda não há regras específicas —o que dificulta, por exemplo, que países saibam o que é um ataque (e o que envolverá retaliação).

Os fóruns onde essas novas armas deveriam ser discutidas seguem estruturalmente incapazes de lidar com a "evolução exponencial" das aplicações militares. E, enquanto soluções não surgem, o cenário é de caos.

A guerra da Rússia contra a Ucrânia é o exemplo mais recente de como tecnologias podem ajudar a definir quem ganha e quem perde batalhas. Drones ajudaram, por exemplo, a atrasar o avanço das tropas russas em Kiev, capital da Ucrânia. O caça da Rússia Sukhoi Su-57, desenvolvido com tecnologia de última geração e que não pode ser detectado por radares, foi usado pela primeira vez em um conflito do tipo.

E a Guerra 2.0 vai muito além...

Máquinas inteligentes substituem os soldados

Nem sempre a tecnologia de ponta andou lado a lado com as forças armadas. No livro "Sapiens", o historiador israelense Yuval Noah Harari conta que até o século 19 as revoluções militares eram produto de mudanças organizacionais, não de inovação tecnológica. Os chineses, por exemplo, descobriram a pólvora e sequer pensaram nela como um recurso militar. Demorou 600 anos para que ela fosse adotada em canhões.

Essa ligação foi se estreitando rapidamente até que chegamos na encruzilhada em que estamos hoje: as máquinas inteligentes tomam cada vez mais o lugar dos humanos em embates pensados para acontecer entre soldados, tanques e caças.

Quer um exemplo? Em 2019, o exército dos Estados Unidos chamou indústria e academia para desenvolver tecnologias definidas como "de aquisição autônoma de alvos" para serem integradas com tecnologia de controle de tiros com "o objetivo de providenciar veículos de combate terrestre com a capacidade de adquirir, identificar e engajar com alvos até três vezes mais rápido do que o processo manual".

Houve um chamado também por empresas capazes de construir mísseis com inteligência artificial para selecionar seus alvos sem intervenção humana.

Iniciativas como essas mostram que os EUA investem pesado em usar visão computacional, inteligência artificial e aprendizado de máquina para criar sistemas capazes de escolher um alvo e atirar. Sim, uma máquina que saiba matar sozinha.

No discurso oficial, essas máquinas nunca farão algo sem "níveis apropriados de julgamento humano no uso da força", mas quem define os limites para isso?

Debate sobre arma que mata sozinha patina

Grupos já se articulam há alguns anos para evitar que isso vire uma realidade. Um dos principais é o "Stop Killer Robots" [Parem os robôs assassinos], campanha da Human Rights Watch, organização internacional de direitos humanos. A ONG aponta que até 2019 seis países estavam avançados no desenvolvimento de armas que atiram sem um humano por trás: EUA, China, Rússia, Reino Unido, Israel e Coreia do Sul.

"Sabemos que, mesmo que um punhado de países esteja envolvido no desenvolvimento [dessas armas], não vai parar ali. Elas vão se proliferar e chegar inclusive a países e até a grupos não estatais", afirma Mary Wareham, coordenadora da campanha.

O primeiro alerta dado por ela foi em 2012, quando seu primeiro relatório foi divulgado demonstrando a necessidade de leis que proíbam o desenvolvimento, a produção e o uso desses sistemas letais autônomos —para os íntimos, LAWS (da sigla em inglês para lethal autonomous weapons systems).

Os debates avançaram pouco até agora. O tema até está em discussão no Conselho de Direitos Humanos da ONU desde 2013, quando foi introduzido pelo Paquistão, mas pelas regras da casa só pode ficar no campo das deliberações durante o mandato atual.

Poucas armas foram proibidas até hoje, porque armamentos têm complexos industriais, tecnológicos e interesses por trás. Eles dizem claramente e não escondem de ninguém que não apoiam um instrumento internacional juridicamente vinculante que proíba ou restrinja o desenvolvimento dessas armas [LAWS]

Guilherme Patriota, ex-embaixador do Brasil junto à Conferência de Desarmamento em Genebra e ex-presidente do grupo de peritos da ONU (Organização das Nações Unidas) sobre segurança cibernética

As regras da guerra

Embora, na prática, isso nem sempre seja levado a sério e sirva mais como futura punição para os perdedores, o que vigora hoje é a Convenção de Armas Convencionais da ONU (com adendos de outras declarações), que prega o uso de armas respeitando o direito humanitário. Ou seja:

  • a distinção entre combatentes e civis
  • o respeito à bandeira da Cruz Vermelha
  • a proteção a feridos, doentes e prisioneiros de guerra
  • a proibição da tortura e outras formas de punição consideradas desumanas

Armas restritas

  • Fragmentos não-detectáveis

    São proibidas armas que causam ferimentos ao corpo com fragmentos não-detectáveis por raio-x, por serem de difícil remoção e causarem sofrimento desnecessário.

    Leia mais
  • Minas terrestres e armadilhas

    A convenção restringe alguns usos de minas terrestres e armadilhas e estabelece regras para proteger civis e limitar armamentos a zonas de conflito.

    Leia mais
  • Armas incendiárias em civis

    Bombas químicas, como o napalm, são proibidas contra civis e seus bens, mas não contra alvos militares. Ataques assim devem vir junto com medidas para evitar danos colaterais.

    Leia mais
  • Armas cegantes a laser

    Desde 1998, estão proibidas as armas a laser projetadas para causar cegueira. Elas não podem ser usadas em nenhum contexto, nem para fins militares.

    Leia mais
  • Restos explosivos de guerra

    Os países são responsáveis pela limpeza da munição não detonada em conflitos, uma regra que tenta diminuir impacto posterior das armas em civis

    Leia mais
  • Outros

    Outros tratados limitam o uso de projéteis com menos que 400 g, balas que expandem ou achatam no corpo, armas químicas e biológicas e munição cluster

Corrida armamentista entre China e EUA

Enquanto a comunidade internacional segue a passos lentos e pouco dispostos na busca por novos limites, quem tem esse tipo de tecnologia avança vorazmente. A China, por exemplo, enxerga na inteligência artificial uma janela para se aproximar dos Estados Unidos em termos de poderio militar.

"Existe uma percepção de que apenas investindo em defesa tradicional a China dificilmente superará, ou chegará perto, da capacidade militar americana nas próximas décadas. Há um projeto de pular um estágio para desenvolver tecnologias mais sofisticadas nesse âmbito, onde os EUA ainda não lideram com tanta folga como é o caso das tecnologias tradicionais, como porta-aviões", explica Oliver Stuenkel, professor de relações internacionais da FGV (Fundação Getúlio Vargas).

E, ao saber que os chineses estão aprimorando seus sistemas de inteligência artificial, o governo norte-americano tem a desculpa perfeita para despejar recursos na pesquisa de suas próprias ferramentas inovadoras, o que estimula uma nova corrida armamentista movida a máquinas mais inteligentes e autônomas e que leva juntos as gigantes de tecnologia.

Meio que não há limite para o dinheiro que os EUA e o Pentágono jogam no setor tecnológico

Mary Wareham, coordenadora da campanha Stop Killer Robots

Projetos envolvem as big techs

Um contrato polêmico do Pentágono mostra bem quanto dinheiro o Departamento de Defesa dos EUA tem para direcionar para a iniciativa privada atrás de novas ferramentas. O chamado Project Maven virou notícia em 2018 quando funcionários do Google protestaram após descobrirem o acordo da empresa com a área militar do país. A parceria envolvia o desenvolvimento de uma inteligência artificial capaz de reconhecer objetos nas filmagens feitas pelas câmeras de drones militares.

"Fui contatada por funcionários do Google em Zurique, Berlim, Gana... de todo mundo, não só a matriz do Google na Califórnia. E eles diziam: 'por que estou trabalhando para uma empresa multinacional que tem relação com as forças armadas de um país?'", lembra Wareham.

O projeto nem renderia tanta grana ao Google, mas era visto por executivos como um caminho para ganhar um contrato bilionário de serviços de computação na nuvem para o Pentágono. A pressão interna fez com que a empresa deixasse os dois projetos, mas startups financiadas pela empresa abocanharam os contratos.

Outras gigantes de tecnologia também se fazem presente em projetos semelhantes. A Microsoft, por exemplo, iniciou um acordo de US$ 480 milhões para fornecer 100 mil óculos HoloLens. Com eles, soldados usarão visores para detectar alvos com precisão para poderem atirar mais rápido —o próximo passo é remover o humano da equação. Esse dispositivo está disponível desde meados de 2021.

O Project Maven continua com empresas como a startup Anduril Industries, que desenvolve um sistema de realidade virtual que providencia uma visão virtual do front militar a soldados, dá a habilidade de identificar alvos e direciona veículos militares não-tripulados ao combate.

Para os críticos, a disseminação de recursos desse tipo traz como risco o fato de que países passem a tomar menos cuidado para iniciar um conflito.

Há uma preocupação com a redução do limiar de conflito, com a geração de condições de maior instabilidade e insegurança internacional. Uma ameaça à paz, até. Por isso, é manter o ser humano no circuito

Guilherme Patriota

Para países como os EUA, que usam essas novas tecnologias, o custo humano para engajar nesse tipo de conflito é muito menor. Isso também muda o cálculo da lógica que faz um país entrar em guerra ou não

Oliver Stuenkel

IA em campo traz menos danos colaterais

As potências militares argumentam que o uso de recursos de inteligência artificial em suas forças armadas é positivo —e elas não estão completamente erradas. Como qualquer outra tecnologia, a IA tem usos bons e ruins. É por esse motivo, segundo Mary Wareham, que a campanha Stop Killer Robots é bem específica em seu pedido.

A automação já é usada por forças armadas para fazer trabalho sujo, chato e perigoso: lavanderia, limpeza das laterais de navios e envio de robôs de desmonte de bombas, respectivamente. A ideia, dizem os EUA, é usar os sistemas autônomos letais também para evitar erros humanos, já que os soldados são menos confiáveis, menos precisos, estão sujeitos ao cansaço e a problemas psicológicos.

Eles ainda afirmam ter critérios próprios, uma espécie de autorregulamentação, que faria com que esses sistemas respeitassem o direito humanitário melhor do que um combatente humano. Mas esse é um dispositivo retórico das potências militares que não se sustenta, visto que as tecnologias de reconhecimento de imagem atuais, fundamentais para um eventual sistema letal autônomo, são comprovadamente imprecisas e apresentam tendências racistas e discriminatórias.

Caminho é exigir controle humano

Quem não tem o conhecimento e os recursos para desenvolver tecnologias de IA capazes de gerar um sistema letal autônomo tenta fazer com que elas parem de avançar, mas há diferentes abordagens para tentar emplacar alguma legislação do tipo. A Stop Killer Robots tem uma posição mais rígida: a proibição por lei desses sistemas.

"Não ficaremos satisfeitos com princípios sobre inteligência artificial, declarações políticas, discussões de melhores práticas. Tudo isso pode parecer útil, mas é uma perda de tempo quando você está olhando para o que um futuro com robôs assassinos irá trazer", argumenta Wareham.

O Brasil, às vezes, radicaliza seu discurso na linha do que pede a ONG, mas está mais de acordo com o que defende a Cruz Vermelha: a obrigação de "controle humano significativo". Essa flexibilização é parte de uma negociação política necessária para que haja progresso nos debates sobre o tema, explica Guilherme Patriota, que considera que uma declaração política conjunta é um bom começo. Um posicionamento irredutível a favor de um tratado e da proibição não faz o debate avançar.

EUA responderiam ataque hacker com ataque nuclear

Enquanto diplomacia e movimentos sociais tentam se antecipar ao robô assassino, poucos olham para outro campo: o do mundo cibernético, que também carece de novas regras. Ataques cibernéticos têm potencial para causar enormes danos materiais e colocar vidas em risco.

Quando se trata de um grupo independente, é mais fácil enquadrar seus membros como bandidos virtuais que merecem ser presos. Mas o que acontece quando o autor de um ataque é parte das forças armadas de um país? A resposta é espinhosa e vai depender de quem é o alvo, o que gera uma instabilidade perigosa.

"De repente você pode ter uma escalada de crise e o país nem sequer considerava uma ação como hostil como um outro país, porque não existe essa concordância mútua sobre que tipo de ação representa um ato de guerra ou não", afirma Oliver Stuenkel.

Qual é uma resposta digna a um ciberataque? Para os EUA, a postura nuclear pode ser uma reação ofensiva, se a infraestrutura elétrica ou de comunicações do país for afetada por hackers a ponto de causar mortes.

Os maiores ciberataques da história

  • Stuxnet (2010)

    Ataque conjunto ligado a EUA e Israel resultou na falha de centrífugas em uma instalação de enriquecimento de materiais nucleares do Irã, sem que operadores notassem o problema nos sistemas de controle industrial do local.

  • NotPetya (2017)

    Ferramenta chamada NotPetya criptografava os dados de computadores-alvo e inutilizava-os. Ligado à Rússia, o malware foi disseminado por um software de declaração de impostos na Ucrânia.

  • Wannacry (2017)

    Malware criado para criptografar dados de redes que usassem Windows. O objetivo era receber dinheiro de "resgate", com a entrega da chave para que redes voltassem ao normal. Foi ligado à Coreia do Norte.

  • Shamoon (2012)

    Malware apagou dados de 35 mil computadores da empresa petrolífera Saudi Aramco, da Arábia Saudita. Senhas foram roubadas, dados apagados e PCs não reiniciavam. Ataque tem ligações com o Irã.

  • Hackers russos (2022)

    Levantamento do Sistema Global de Caça a Ameaças mostra que hakers russos atacaram sites do setor de Defesa da Ucrânia, além de sistemas financeiro e de comunicação. No dia do início da guerra, foram 239 empresas afetadas.

As bases para guerra cibernética estão criadas

A possibilidade de uma reação nuclear a um ataque virtual é um cenário extremo e ainda não realizado. Mas isso ilustra como países enxergam os graves riscos que ferramentas cibernéticas trazem à segurança nacional.

Assim como no caso dos sistemas letais autônomos, Estados Unidos, Rússia e China estão entre os líderes em "armas" virtuais, acompanhados de Israel e Reino Unido. Adam Segal, diretor do programa de políticas digitais e de ciberespaço do think tank Council on Foreign Relations, ainda coloca franceses e alemães como outras potências, em termos de recursos e capacidades.

Nenhuma dessas potências atacou oficialmente a outra, mas os EUA já detectaram a presença de hackers russos em sua infraestrutura crítica —usinas geradoras de energia, sistemas de transmissão elétrica ou de distribuição de água. Em uma reação digna de Guerra Fria, os norte-americanos intensificaram as ações cibernéticas nas redes russas e estão prontos para causar danos, se necessário.

O gênio já saiu da lâmpada. Os EUA já tinham admitido que estavam nas redes da China e da Rússia. Isso vai continuar e sugere que a responsabilidade agora é dos estados para determinar quais são as regras, para que haja pelo menos algum tipo de previsibilidade para que não haja escalada.

Adam Segal

Internet das coisas abre novos campos de batalha

Vale dizer que um hacker qualquer não vai ser responsável por grandes ataques. "A habilidade de desligar um sistema elétrico ou causar destruição física está, neste momento, limitada a estados-nação", afirma Segal. Mas o mundo está migrando para uma nova fase tecnológica com a chegada do 5G e a promessa de milhares de novos aparelhos conectados à internet.

Quando semáforos, carros e outros aparelhos funcionarem em sintonia com a rede, aquele potencial destrutivo antes limitado a ferramentas estatais tem tudo para cair em mãos indevidas. E aí as armas cibernéticas causarão danos que sequer conseguimos imaginar.

O especialista do Council on Foreign Relations cita como exemplo o ataque à Sony Pictures, em 2014, realizado pelo grupo hacker Lazarus, com ligações com a Coreia do Norte. Quem apostaria que uma ofensiva bancada por um país e direcionada a uma produtora de filmes iria acontecer?

O direito humanitário vale para ciberataque? Não muito

Não existe uma lei que diga o que um estado pode fazer caso deseje revidar um ataque cibernético, mas países como os EUA argumentam que o direito internacional também se aplica ao ciberespaço.

"Não é sempre claro como você faz isso na realidade, mas ainda te dá algumas orientações", explica Segal. "Ainda há muita ambiguidade e incerteza. Você poderia, talvez, entrar em um sistema energético elétrico, mapeá-lo, mas não interferir nele, ou atacá-lo."

Para Kai Michael Kenkel, professor do Instituto de Relações Internacionais da PUC-RJ, por ter uma tendência a afetar civis, o ataque cibernético viola as distinções entre combatentes e não combatentes. "É necessário que as convenções que regem o direito internacional para os conflitos armados tenham uma atualização para lidar com essas tecnologias", argumenta.

Essas atualizações só virão se houver apoio e um certo nível de consenso internacional, o que é difícil dada a proliferação destes recursos cibernéticos.

Segal acha que é mais viável que os países entrem em acordo sobre "ações colaborativas e cooperativas" contra eventuais violadores das regras. Para isso também é preciso pressão popular —só que ataques estatais de hackers não mexem com a imaginação coletiva da mesma maneira que um robô assassino.

Drones avançam sobre nossas cabeças

Outro lugar de discussão é o céu: os drones se espalham pelas zonas de conflito sem regulações internacionais. E aqui não falamos daqueles drones testados para fazer entregas ou funcionar como táxi-aéreo.

A batalha por regras específicas para dispositivos como drones ou ataques cibernéticos foi perdida. Há anos que veículos não tripulados participam de zonas de guerra e o número de ciberataques internacionais disparou nos últimos anos.

Os drones de combate até podem ser enquadrá-los como armas leves, mas uma tentativa de restrição nesse sentido fracassou. Ao contrário das outras tecnologias citadas, as armas voadoras já são um instrumento de guerra que é promovido como preciso —mesmo papo usado para defesa dos sistemas letais autônomos.

A realidade não é tão bonita assim: em abril de 2019, os Estados Unidos admitiram, de forma inédita, que ataques aéreos feitos por drones na Somália mataram dois civis —uma mulher e uma criança. Ação semelhante aconteceu pouco tempo depois, em agosto do mesmo ano, quando os EUA também usaram drones para atacar uma estação em Cabul, resultando na morte de dez civis, sendo sete crianças, o que gerou desculpas do governo norte-americano.

Não queremos tornar o mundo mais instável, menos seguro e pacífico. Não queremos que a competição por armas, que podem ser muito mais eficazes, facilite a guerra

Guilherme Patriota

Topo