O drone que distingue inimigos de aliados e que pode matar
Empresa israelita de novo aparelho militar diz que este “detecta e a classifica o inimigo” mas garante que depende da acção humana para disparar. Especialistas dizem que pode transformar a guerra.
Na semana passada, uma empresa israelita de material de Defesa pintou um quadro assustador. Num vídeo de aproximadamente dois minutos, partilhado no YouTube, que se assemelha a um filme de acção, vêem-se soldados, numa missão, a serem subitamente atirados ao chão por fogo inimigo e a pedirem ajuda.
Em resposta, um pequeno drone abandona a nave-mãe e vem em auxílio, movendo-se por trás dos soldados inimigos e matando-os com facilidade. Embora se trate de ficção, o drone – revelado na semana passada pela Elbit Systems, com sede em Israel – não é.
O Lanius representa uma nova geração de drones: ágil, conectado com inteligência artificial e capaz de espiar e matar. O aparelho é inspirado no design de um drone de corridas, o que lhe permite mover-se em espaços apertados, como becos ou edifícios pequenos.
O conteúdo promocional da empresa gaba as suas capacidades. Depois de enviado para a batalha, o algoritmo do Lanius faz um mapa do local e um scan às pessoas, distinguido inimigos de aliados – e distribuindo toda essa informação com os soldados, que só têm de carregar num botão para atacar ou matar quem quiserem.
Para os especialistas do sector, esta novidade representa um cenário de pesadelo, que pode alterar as dinâmicas da guerra.
“É extremamente preocupante”, assume Catherine Connolly, especialista em armamento na Stop Killer Robots, um grupo anti-armas. “Trata-se, basicamente, de simplesmente permitir que seja a máquina a decidir se alguém vive ou morre, removendo o elemento do controlo humano dessa decisão.”
Os representantes da Elbit Systems não responderam a um pedido de comentário [endereçado pelo Washington Post].
Guerra dos drones
A utilização de drones na guerra tornou-se um lugar-comum. O arsenal de drones dos Estados Unidos é responsável pela morte de inimigos e de civis no Médio Oriente. Na guerra da Rússia contra a Ucrânia, Moscovo tem usado drone assassino com capacidade para deixar cair bombas em cima de alvos, destruindo-os quase sem se dar por isso.
Drones grandes e pequenos têm tido impacto na guerra. Utilizado pela Ucrânia, o Bayraktar TB2, de fabrico turco – um drone do tamanho de um pequeno avião e equipado com mísseis guiados a laser –, tem causado estragos nos tanques e camiões russos.
Com sede nos arredores de Haifa, em Israel, a Elbit Systems informa, no seu conteúdo promocional, que o Lanius foi concebido com funções particularmente úteis em cenários de guerra urbana, onde as tropas não conseguem ver bem os seus inimigos.
De acordo com a sua ficha informativa, o drone é do tamanho da palma de uma mão, com 11 polegadas por seis. Alcança uma velocidade máxima de 45 milhas por hora [72,4 km/h]. Pode voar durante cerca de sete minutos e tem capacidade para transportar material letal ou não-letal. É pouco claro o quão mortífero pode ser esse material letal.
O drone usa WiFi e tecnologia de rádio para comunicações. Pode ser manobrado através de navegação GPS e o sistema de inteligência artificial consegue digitalizar e mapear campos de batalha urbanos, partilhando com os soldados mapas em 3D sobre o que está à sua volta.
Segundo a empresa, o software autónomo do drone ajuda com a “detecção e a classificação do inimigo”, útil para “emboscadas letais”.
A empresa sublinha, no entanto, que o drone não tem capacidade para decidir, sozinho, quem pode matar, e que precisa de um “homem ao comando” para tomar essa decisão e apertar o gatilho.
“São os sistemas que decidem” quem morre
Ainda assim, Connolly, da Stop Killer Robots, tem muitas preocupações. Provavelmente, refere, a função que requer o envolvimento humano na decisão de matar pode ser desactivada.
“Para alterar isso só deve ser preciso uma actualização”, acredita. “Não há nada que possa impedir o fabricante, ou um advogado ou agente que compre estes sistemas, de o fazer, se assim o exigir.”
A capacidade do Lanius para usar algoritmos para distinguir inimigos de aliados parece inquietante, acrescenta.
Connolly diz que o público em geral deve ser informado como é que o drone distingue entre um combatente e um civil; em que informação é que o sistema de algoritmo está treinado para tomar essas decisões; quem é que catalogou a informação que está a ser usada; e que tipo de comportamento é que está a ser identificado para rotular alguém como estando a ser uma ameaça.
“O que isto demonstra é, basicamente, é, que, agora, usando um algoritmo, são os sistemas a decidir se tiram vidas humanas.”
Exclusivo PÚBLICO/The Washington Post
(Tradução de António Saraiva Lima)