divdiv
PUBLICIDADE

Geral

Publicidade

O uso da Inteligência Artificial na guerra e os riscos de um conflito nuclear

Algoritmo processa rapidamente uma infinidade de dados e extrai cálculos de probabilidade que ajudam a decidir quais alvos atingir

Por: Correio do Povo

A Inteligência Artificial (IA) se estabeleceu como ferramenta nas guerras modernas, mas suscita imensa preocupação pelo risco da escalada que apresenta, sobretudo, pela questão de saber até que ponto os seres humanos realmente a controlam. Recentemente, dois meios de comunicação independentes israelenses acusaram o governo de Israel de ter usado IA para identificar alvos de ataques em Gaza, o que levou o secretário-geral da ONU, Antonio Gutérres, a afirmar na sexta-feira que está “profundamente perturbado”.

Para além do programa acusado, Lavender, e da investigação jornalística que as autoridades israelenses refutam, estes são os principais pontos sobre um desenvolvimento tecnológico que mudou a forma de travar guerras.

Três principais usos

A IA é apreciada pela definição de alvos. O algoritmo processa rapidamente uma infinidade de dados, dos quais extrai cálculos de probabilidade que em teoria ajudam a decidir quais alvos atingir.

Esta ferramenta também atua em nível tático, como no caso de enxame de drones, uma técnica que parece ter avançado significativamente na China. No futuro, cada dispositivo poderá se comunicar com os demais e agir em conjunto sobre um alvo previamente definido.A nível estratégico, a IA permite modelar campos de batalha, uma hipótese de resposta a um ataque e até a utilização ou não de armas atômicas.

Pensar mais rápido

Em grandes conflitos, a Inteligência Artificial propõe “estratégias e planos militares que respondem em tempo real a determinadas situações”, resume Alessandro Accorsi, especialista do Crisis Group.

“O tempo de reação é reduzido significativamente. O que um ser humano faz em uma hora, [a IA] faz por você em poucos segundos”, afirmou.

Um exemplo disso é o Domo de Ferro, que intercepta projéteis aéreos em Israel, que graças a esta ferramenta é capaz de detectar a chegada de um, determinar o seu tipo e destino e até os danos que poderá causar.

Logo, “o operador (…) tem um minuto para decidir se neutraliza ou não o foguete”, explica Laure de Roucy-Rochegonde, do Instituto Francês de Relações Internacionais (IFRI). O problema, segundo ela, é que “muitas vezes” quem controla o sistema é “um jovem que está cumprindo o serviço militar, que tem 20 anos e não conhece muito bem o direito da guerra. Você tem que se perguntar até que ponto o seu controle é efetivo”, acrescenta.

Questão ética

A IA está se estabelecendo no campo de batalha, mas sem que a humanidade esteja necessariamente consciente de todas as consequências. O homem “toma uma decisão que consiste em uma recomendação formulada pela máquina, mas sem saber em que fatos a máquina a baseou”, explica Laure de Roucy-Rochegonde.

“Mesmo que seja um operador humano que aperte o botão, esta falta de conhecimento ou incompreensão, bem como o fator rapidez, fazem com que sua responsabilidade na tomada de decisão seja bastante limitada”, acrescentou. “Não sabemos necessariamente o que (a IA) fez ou pensou, ou como chegou a esse resultado”, adiciona Ulrike Franke, do Conselho Europeu de Relações Exteriores (ECFR).

Ucrânia como teste

Recentemente, os Estados Unidos têm utilizado algoritmos, por exemplo, para atingir os rebeldes huthis no Iêmen. Mas “a grande mudança está acontecendo agora: a Ucrânia se tornou um laboratório para o uso militar da IA”, diz Accorsi.

Desde que a Rússia invadiu o país em fevereiro de 2022, os dois lados “desenvolveram soluções de IA para tarefas como inteligência geoespacial, operações não tripuladas, treino militar e guerra cibernética”, escreve Vitali Goncharuk do Observatório de IA de Defesa da Universidade Helmut Schmidt de Hamburgo.

Escalada e risco nuclear

A realidade é que os cálculos frios das máquinas ignoram a dúvida e o instinto de sobrevivência, uma característica que define profundamente o homo sapiens. Em janeiro, pesquisadores de quatro institutos e universidades americanas publicaram um estudo, utilizando simulações de conflitos, de cinco grandes modelos de linguagem.

Segundo as conclusões, estes modelos “tendem a desenvolver uma dinâmica de corrida armamentista, que leva a conflitos mais significativos e, em casos raros, à mobilização de armas nucleares”, afirmam.

As grandes potências estão preocupadas em não perder para seus adversários e atualmente não parecem querer regulamentar toda esta tecnologia.

O presidente americano, Joe Biden, e seu homólogo chinês, Xi Jinping, concordaram em novembro que seus respectivos especialistas examinariam a questão. A ONU aborda o assunto há dez anos, mas sem grandes resultados. “Há debates sobre o que deveria ser feito na indústria civil de IA. Mas muito poucos quando se trata da indústria de defesa”, observa Alessandro Accorsi.

PUBLICIDADE
PUBLICIDADE