Topo

Ricardo Cavallini

Piloto sumiu: falta pouco para os EUA terem caças controlados por IA

XQ-58A Valkyrie fez seu voo inaugural em março de 2019, no Arizona (EUA) - Joshua Hoskins/ Força Aérea dos EUA
XQ-58A Valkyrie fez seu voo inaugural em março de 2019, no Arizona (EUA) Imagem: Joshua Hoskins/ Força Aérea dos EUA

09/06/2020 04h00

Receba os novos posts desta coluna no seu e-mail

Email inválido

A Força Aérea norte-americana pretende colocar caças pilotados por humanos contra aviões autônomos usando inteligência artificial em um desafio a ser realizado em julho do ano que vem.

As declarações do tenente-general Jack Shanahan, responsável pela adoção de inteligência artificial nas forças armadas, não deixaram claro se a nave seria 100% autônoma, podendo ser um trabalho conjunto de homem e inteligência artificial.

A Força Aérea norte-americana já desenvolve alguns projetos usando inteligência artificial. É o caso do XQ-58A Valkyrie, um projeto de baixo custo para acompanhar caças tripulados por humanos.

Aeronaves sem um humano a bordo poderiam realizar manobras que seriam impossíveis para um piloto, sem contar que sua aerodinâmica e peso poderiam ser melhor trabalhadas por não precisar de equipamentos de suporte a vida, como, por exemplo, o banco ejetor.

Por sua ousadia, a revista Air Force Magazine chamou o projeto de grande "moonshot", uma hipérbole que faz referência ao projeto Apollo, que levou o homem à Lua. A palavra virou sinônimo de grandes desafios tecnológicos de alta complexidade.

Em sua entrevista à revista, Shanahan comentou que uma das possibilidades seria usar não um grande caça, mas algo menor, com capacidade de enxame, ou seja, vários drones menores que trabalham em conjunto conversando entre si.

Shanahan acredita que a máquina ainda deve demorar para substituir totalmente os humanos nos próximos anos.

O tenente-general lembra que, apesar de companhias privadas terem investido dezenas de bilhões na última década, nenhuma delas ainda havia conseguido entregar um carro autônomo nível 4, quando um motorista humano não é mais necessário.

Porém, existe uma grande diferença entre dirigir em uma cidade e realizar um combate aéreo de caças. Pode parecer estranho, mas a segunda opção é muito mais simples. No ar não existem semáforos, crianças jogando bola na rua e milhões de outras situações ou sinalizações que um carro precisa compreender.

Em um simpósio militar que aconteceu na Flórida, Elon Musk —CEO da Tesla e da Space X— defendeu que mesmo o F-35 Lightning II, considerado o auge da tecnologia militar, deveria ter um projeto concorrente que usasse inteligência artificial.

Mais tarde, quando alguém citou sua declaração, ele foi ainda mais incisivo no Twitter, dizendo que o projeto concorrente deveria ser um drone controlado remotamente por um humano, mas com manobras autônomas. Segundo ele, o F-35 não teria nenhuma chance contra isso.

Vale lembrar que o F-35 é o projeto bélico mais caro dos EUA, com custo avaliado em US$ 406 bilhões. Um assunto delicado, principalmente se lembrarmos que a China se tornou o país líder em investimento em inteligência artificial. Apesar dos especialistas apontarem que o foco da China não está em projetos de defesa, a falta de transparência nunca deixaria claro a possibilidade de estarem trabalhando em um projeto concorrente.

Aeronaves controladas por inteligência artificial não são exatamente uma novidade, dezenas de países possuem armamentos com capacidade ampliada ou com algum tipo de autonomia. Um exemplo disso é o projeto israelense Harpy, um drone que vasculha uma extensa área para detectar radares inimigos. Ao localizar o alvo, o equipamento voa em direção ao equipamento como um kamikaze, destruindo ambos na colisão.

Harpy - Divulgação - Divulgação
Imagem do armamento autônomo Harpy
Imagem: Divulgação

A evolução de armamentos letais autônomos pode fortalecer a discussão sobre uma possível regulamentação mundial.

Em 2012, Jody Williams, Nobel da Paz (1997) criou uma campanha que busca banir a criação de armas 100% autônomas.

Segundo a campanha, robôs letais 100% autônomos podem trazer problemas enormes como ultrapassar limites morais necessários a escolhas complexas, criar uma corrida bélica desestabilizada, incentivar guerras (pela ausência de risco às tropas do atacante), causar novas guerras por riscos cometidos pela decisão da máquina, provocar ataques desproporcionais e ainda serem usados por governos autoritários para controlar a população.

Com o sugestivo nome de Stop Killer Robots, o projeto conta com o apoio de, entre outros, 26 vencedores do prêmio Nobel, o secretário geral das Nações Unidas, membros do parlamento europeu e mais de 4.500 cientistas de inteligência artificial.

A discussão não é nova, mas está apenas começando. E a campanha não será fácil, pois alguns países são contra, entre eles, imagine só, EUA, China e Rússia.