×

Palestina | Lavender: a inteligência artificial que Israel usa para o genocídio em Gaza

Os militares israelenses “marcaram” dezenas de milhares de habitantes de Gaza como suspeitos de homicídio, utilizando um sistema de seleção a partir de uma IA com pouca supervisão humana e uma política permissiva quanto aos ataques. O relatório é de +972 e Local Call.

sexta-feira 5 de abril | Edição do dia

Publicamos abaixo uma versão resumida e editada da pesquisa que pode ser lida na íntegra aqui.

Uma nova investigação da revista +972 e do jornal Local Call revela que os militares israelenses desenvolveram um programa baseado em inteligência artificial conhecido como “Lavender” (Lavanda), de acordo com seis agentes da Inteligência israelense, que serviram nas forças armadas durante os atuais ataques à Faixa de Gaza e estiveram envolvidos em primeira mão na utilização de IA para gerar alvos para subsequente assassinato. Lavender desempenhou um papel central no bombardeio sem precedentes dos palestinos, especialmente durante os primeiros estágios da guerra. Na verdade, segundo fontes, a sua influência nas operações militares foi tal que trataram essencialmente os resultados da máquina de IA “como se fosse uma decisão humana”.

Formalmente, o sistema Lavender foi concebido para sinalizar todos os suspeitos de pertencerem às alas militares do Hamas e da Jihad Islâmica da Palestina (JIP), incluindo os de baixa patente, como potenciais alvos de bombardeamento. Fontes disseram ao +972 e à Local Call que, durante as primeiras semanas da guerra, os militares confiaram quase inteiramente na Lavender, que registou até 37.000 palestinos como suspeitos de serem militantes (e suas casas) para possíveis ataques aéreos.

Durante as primeiras semanas, o Exército deu ampla aprovação aos oficiais para adotarem as listas de alvos a matar emitidas por Lavender, sem a necessidade de verificar minuciosamente por que a máquina tomou essas decisões ou examinar os dados de inteligência em que se baseava. Uma fonte afirmou que o pessoal humano muitas vezes servia apenas para justificar as decisões da máquina com a sua assinatura, acrescentando que normalmente gastavam pessoalmente apenas cerca de "20 segundos" em cada alvo antes de autorizar um bombardeamento do alvo designado por Lavender. Isto apesar de saber que o sistema comete o que é considerado “erro” em cerca de 10 por cento dos casos, e é conhecido por sinalizar ocasionalmente pessoas que têm apenas uma ligação frouxa com grupos militantes, ou nenhuma ligação.

Além disso, o exército israelense atacou sistematicamente os indivíduos marcados ​​enquanto estes se encontravam nas suas casas (normalmente à noite, enquanto toda a sua família estava presente) e não durante o decurso da atividade militar. Segundo fontes, isso ocorreu porque, do ponto de vista da inteligência, era mais fácil localizar as pessoas em suas residências particulares. Sistemas automatizados adicionais, incluindo um batizado de "Onde está o papai?", foram usados ​​especificamente para rastrear os alvos designados por Lavender e realizar ataques a bomba quando eles entravam em suas casas particulares.

O resultado, como testemunharam fontes, é que milhares de palestinos (a maioria deles mulheres e crianças ou pessoas que não participaram nos combates) foram dizimados por ataques aéreos israelenses, especialmente durante as primeiras semanas dos ataques, devido as decisões desta Inteligência Artificial.

“Não estávamos interessados ​​em matar agentes [do Hamas] apenas quando eles estavam em um edifício militar ou participando numa atividade militar”, disse A., um oficial de inteligência, ao +972 e Local Call. “Pelo contrário, as FDI os bombardearam nas suas casas sem hesitação, como primeira opção. É muito mais fácil bombardear a casa de uma família. “O sistema foi projetado para procurá-los nessas situações.”

A máquina Lavender junta-se a outro sistema de inteligência artificial, “The Gospel” (O Evangelho), sobre o qual a informação foi revelada numa investigação anterior por +972 e Local Call em Novembro de 2023, bem como nas próprias publicações dos militares israelenses. Uma diferença fundamental entre os dois sistemas está na definição do alvo: enquanto O Evangelho marca os edifícios e estruturas a partir dos quais os militares da IDF afirmam que os militantes operam, Lavender marca as pessoas e coloca-as numa lista de alvos a serem mortos.

Além disso, segundo fontes, quando se tratou de atacar jovens militantes suspeitos marcados por Lavender, o exército preferiu usar apenas mísseis não guiados, vulgarmente conhecidos como bombas "burras" (em contraste com bombas "inteligentes" de precisão), que podem destruir edifícios inteiros em cima de seus ocupantes e causar vítimas significativas. “Não é aconselhável desperdiçar bombas caras com pessoas sem importância; é muito caro para o país e há escassez [dessas bombas]”, disse C., um dos oficiais de inteligência. Outra fonte disse que eles autorizaram pessoalmente o bombardeio de “centenas” de casas particulares de supostos jovens agentes marcados por Lavender, e que muitos desses ataques mataram civis e famílias inteiras como “danos colaterais”.

Numa medida sem precedentes, segundo duas das fontes, o exército também decidiu durante as primeiras semanas dos ataques que por cada jovem militante do Hamas que Lavender sinalizava, era permitido matar até 15 ou 20 civis. No passado, os militares não autorizavam quaisquer “danos colaterais” durante assassinatos de militantes de baixa patente. As fontes acrescentaram que, no caso de o alvo ser um alto funcionário do Hamas com a patente de comandante de batalhão ou brigada, o exército autorizou em diversas ocasiões o assassinato de mais de 100 civis durante os ataques a cada um desses comandantes.

De acordo com o relatório da revista +972 sob a “Operação Espadas de Ferro”, após os ataques de 7 de Outubro, o exército israelense decidiu designar todos os agentes da ala militar do Hamas como alvos humanos, independentemente da sua posição ou importância militar.
Isso mudou tudo, e quando a lista se expandiu para incluir dezenas de milhares de agentes de baixa patente, os militares israelenses pensaram que tinham de confiar em software automatizado e inteligência artificial. O resultado, testemunham as fontes, foi que o papel do pessoal humano no enquadramento dos palestinos como agentes militares foi marginalizado e a IA fez a maior parte do trabalho.

De acordo com quatro das fontes que falaram com +972 e Local Call, Lavender, que foi desenvolvido para criar alvos humanos, marcou cerca de 37.000 palestinos como suspeitos de “militantes do Hamas”, a maioria deles jovens, para assassinato.

Assim, Lavender deixou de ser uma ferramenta auxiliar para ser aquela que define automaticamente os alvos a serem mortos. As fontes disseram que se Lavender decidisse que um indivíduo era um militante do Hamas, eles seriam essencialmente solicitados a tratar isso como uma ordem, sem a necessidade de verificar de forma independente por que a máquina tomou essa decisão ou examinar os dados brutos de inteligência naqueles em que se baseou.

O que o software Lavender faz é analisar a informação recolhida sobre a maioria dos 2,3 milhões de residentes da Faixa de Gaza através de um sistema de vigilância em massa, depois avaliar e classificar a probabilidade de cada pessoa em particular estar ativa na ala militar do Hamas ou na PIJ. Segundo fontes, a máquina dá a quase todos em Gaza uma classificação de 1 a 100, expressando a probabilidade de serem militantes.

Lavender aprende a identificar características de agentes conhecidos do Hamas e da JIP, cujas informações foram inseridas na máquina como dados de treinamento, e depois a localizar essas mesmas características entre a população em geral, explicaram as fontes. Um indivíduo que possua diversas características incriminatórias diferentes alcançará uma classificação elevada e, portanto, se tornará automaticamente um alvo potencial para assassinato.

A razão para esta automatização foi a pressão constante para gerar mais alvos para assassinato. Segundo uma das fontes, eles começaram a usar recursos mais amplos para aumentar o número de alvos a matar. Esses números "mudam o tempo todo, porque depende de onde está definida a definição do que é um militante do Hamas. Houve momentos em que um militante do Hamas foi definido de forma mais ampla, e então a máquina começou a nos trazer todo tipo de pessoal de defesa civil, policiais" ou qualquer pessoa que trabalhe para o estado em Gaza.

A mesma coisa acontece quando o sistema utiliza números de telefone para identificar “suspeitos”. “Na guerra, os palestinos trocam de telefone o tempo todo”, disse a fonte. “As pessoas perdem contato com suas famílias, dão o telefone para um amigo ou para a esposa e talvez o percam. “Não há como confiar 100% no mecanismo automático que determina qual número [de telefone] pertence a quem.”

Embora o Exército israelense tenha negado ao +972 que é assim que esta IA funciona e tenha dito que a tecnologia é usada apenas como uma ferramenta adicional, as fontes da investigação indicaram que os membros do Exército eram apenas um apêndice da máquina e gastaram não mais que 20 segundos verificando o alvo antes de ser bombardeado. Esta verificação serviu apenas para confirmar que o alvo era um homem e não uma mulher. Só nesse caso o Exército presumiu que a máquina provavelmente teria cometido um erro, porque não há mulheres nas fileiras das alas militares do Hamas e da Jihad Islâmica.

Na prática, fontes disseram que isto significava que para os homens civis marcados erroneamente por Lavender, não havia nenhum mecanismo de supervisão para detectar o erro.

A investigação +972 e Local Call também aponta como os alvos estavam ligados às casas de suas famílias, o tipo de bombas que usaram dependendo da posição do alvo, e o fato de que os ataques foram autorizados sem considerar “danos colaterais”.

Isso incluía autorização para matar até 100 civis caso o alvo a ser atacado fosse identificado pela IA como “de alto escalão”. Isto é o que explica a quantidade de infra-estruturas, incluindo casas de famílias, que foram destruídas e porque a maioria dos mortos são mulheres, crianças e idosos.

Lavender junta-se a uma longa lista de ferramentas tecnológicas utilizadas por Israel para vigilância em massa do povo palestino em Gaza e na Cisjordânia. Só que ela é o desenvolvimento da Inteligência Artificial colocado ao serviço do genocídio que Israel está realizando. Muitas destas ferramentas de ponta vêm de países imperialistas, alguns dos quais hoje apontam hipocritamente os “excessos” de Netanyahu. A empresa britânica Elbit System fornece, por exemplo, drones e ferramentas de vigilância particularmente sofisticadas, que garantem o controle de Israel sobre o povo palestiniano, enquanto os Estados Unidos financiam há anos o desenvolvimento deste tipo de tecnologia que Israel utiliza contra o povo palestino e que depois é vendida a outros países como material de guerra.

Isso é mais uma demonstração dos laços militares e industriais que Israel mantém com as potências imperialistas para garantir a sua política colonial sobre o povo palestino.




Comentários

Deixar Comentário


Destacados del día

Últimas noticias