CHATBOTS VÃO À GUERRA: COMO A IA GENERETATIVA E DRONES KAMIKAZES TRANSFORMARAM A GUERRA NO ORIENTE MÉDIO
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2026/J/D/9oOUsuQlGEyurBv73AMg/antropic-bolss-bloomber.jpg)
Três anos após a popularização da inteligência artificial (IA) generativa, a tecnologia chegou aos campos de batalha. O conflito no Oriente Médio ficará marcado como o primeiro grande evento militar com papel fundamental dos grandes modelos de linguagem (LLM), o mesmo tipo de tecnologia que alimenta chatbots comerciais, como o ChatGPT.
— Quando falamos de IA na guerra, o nosso imaginário gira em torno de automação de armas. Mas o grande conjunto do uso da IA está nos processos de auxílio à tomada de decisão e, evidentemente, coleta de dados e de informação — explica ao GLOBO Alcides Peron, professor da Faculdade de Ciências Aplicadas da Universidade Estadual de Campinas (Unicamp).
Em outras palavras, a IA generativa acelerou o processo entre a coleta de informações e a decisão de atacar os alvos no Irã. Apesar de ter sido barrado pelo presidente Donald Trump de contratos com o governo americano na sexta, o chatbot Claude, da Anthropic, foi utilizado horas depois durante a Operação Fúria Épica, segundo o site Axios.
Não é possível saber exatamente o papel do chatbot durante o ataque, mas, em 2024, ele foi integrado ao Departamento de Guerra e outras agências de segurança americanas sob a justificativa de ser usado para planejamento de operações. Logo, ele foi integrado ao sistemas da Palantir, gigante dos softwares de guerra e segurança, para aumentar a velocidade e a eficiência no processo de decisão. O Axios afirma que rapidamente o Claude passou a ser visto pelo Pentágono como superior aos seus concorrentes.
— Toda a evolução da guerra prima pela aceleração e pela precisão. Isso começa com os conflitos nucleares e começa a ganhar força conforme você tem um avanço da cibernética na segunda metade do século 20. — diz Peron.
Organizador de dados
A coleta massiva de dados por parte da inteligência americana e israelense não é novidade, mas lidar com todas essas informações era um gargalo importante. Para o ataque que resultou na morte do Aiatolá Ali Khamenei, as informações coletadas eram bastante específicas. Segundo o Financial Times, todas as câmeras de trânsito de Teerã foram hackeadas e transmitiam imagens para servidores em Tel Aviv e no sul de Israel, o que permitiu identificar com precisão a localização do líder supremo do Irã.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2026/P/g/Nk9CASRDqeNqc2XxuwQg/ezgif-82993fe7e4c7c1a5.gif)
Ao longo dos anos, a Unidade 8200, principal força de inteligência cibernética e de sinais das Forças de Defesa de Israel (IDF), utilizou o sistema Lavender para realizar a coleta massiva de metadados de celulares e redes sociais na tentativa de identificar padrões de comportamento. Se a IA identifica um padrão "suspeito", ela sugere o ataque quase imediatamente — o uso desse sistema ganhou força durante a guerra em Gaza e foi criticado por transformar em alvos mais de 37 mil pessoas.
O “Finacial Times” afirma que os dossiês gerados por IA no Irã traziam também endereços, horário de expediente e rotas utilizadas para trabalhar dos seguranças do alto comando iraniano. Trazia também quem era designado para proteger e para realizar transportes, criando o que a inteligência israelense chamava de “padrão de vida”.
Além do Lavender, que classifica alvos humanos, desde 2021 as forças de Israel utilizam um outro sistema de IA chamado Habsora, que identifica prédios e estruturas de interesse. Esse sistema, por exemplo, foi utilizado em 2024 nos ataques que explodiram pagers, matando membros do Hezbollah.
Enquanto isso, os EUA utilizam sistemas da Palantir para criar “gêmeos digitais” de locais físicos para ajudar na tomada de decisões. O software da companhia americana, que foi cofundada pelo bilionário Peter Thiel, reúne dados captados por drones e sensores para selecionar alvos. O sistema também recomenda armamento, levando em conta o estoque de munição e o desempenho anterior contra alvos semelhantes — ajuda também a avaliar os fundamentos jurídicos para um ataque.
“O Aiatolá seria incapaz de evitar nossa inteligência e sistemas de monitoramento altamente sofisticados, e, trabalhando junto com Israel, não havia nada que ele, ou os outros líderes mortos com ele, pudesse fazer”, escreveu Trump no sábado em seu perfil no Truth Social.
No entanto, trabalhar com tantos pontos de informação atrasava operações, o que pode ter mudado com o uso do Claude. Assim como qualquer pessoa pode “conversar com dados” em ferramentas comerciais como o NotebookLM, do Google, os oficiais americanos passaram a ter a possibilidade de explorar informações com maior velocidade e menor barreira técnica.
— O que é a grande novidade da IA é que você consegue ter mapas atualizados em tempo real e conversar com esses dados. De uma hora para outra, você pode demandar uma estimativa se o ataque for feito não em lugar A, mas no lugar B e como isso vai provocar um conjunto de efeitos. Você tira o entreposto humano. Não é preciso perguntar para um sujeito ali na ponta o que fazer — diz Peron.
A “pré-estreia” do Claude em uma grande operação aconteceu em janeiro na Venezuela, na operação que capturou Nicolás Maduro. Segundo o “Axios”, os modelos da Anthropic foram usados não apenas na preparação da operação, mas também durante as ações. A capacidade de analisar dados em tempo real, como imagens de satélites ou relatórios de inteligência, teria agradado aos militares americanos.
O caso também foi início da deterioração das relações entre Anthropic e o governo americano. Na sexta (27), a companhia respondeu dizendo que seus produtos não podem ser usados para vigilância de cidadãos americanos nem para desenvolver armas totalmente autônomas. "Nenhuma intimidação ou punição por parte do Departamento de Guerra mudará nossa posição", disse a Anthropic.
Na sequência, a companhia foi classificada como um risco para a cadeia de suprimentos dos EUA — uma medida sem precedentes contra uma empresa americana que ameaça trazer consequências profundas para seus negócios.
Antes do rompimento, no entanto, a Anthropic buscou avançar ainda mais seus modelos. A “Bloomberg” reportou que, em janeiro, a companhia participou de uma competição de US$ 100 milhões do Departamento de Defesa para desenvolver tecnologias de voz para a coordenação de drones autônomos. Em janeiro, um militar teria afirmado que os drones seriam usados para fins ofensivos, afirmando que a interação entre humano e máquina teria impacto direto na letalidade e efetividade dos sistemas.
Segundo a reportagem, a Anthropic não ganhou o prêmio. A companhia também não comentou o assunto.
Drones kamikazes na outra ponta
Além da IA generativa, os EUA implementaram outra inovação em seu arsenal: drones kamikazes de baixo custo. “Ontem foi feito história, mas muitos ignoraram a manchete principal. A era das armas de US$ 35 mil começou”, escreveu no LinkedIn Lorin Selby, contra-almirante aposentado da Marinha dos Estados Unidos e especialista em segurança nacional.
No sábado (28), o Comando Central dos EUA informou que “empregou pela primeira vez em combate drones de ataque de baixo custo e uso único”. Os drones LUCAS (sigla para "Low-Cost Uncrewed Combat Attack System") são fabricados pela Spektreworks e foram inspirados nos drones iranianos Shahed-136 do Irã, que foram usados na guerra da Ucrânia.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2026/M/p/DgA4ltSFuWHZoC8M0sUA/joorvjxocjahvcgiidao2v5c3e.avif)
Eles fazem parte de uma nova estratégia militar chamada "affordable mass" (massa acessível), que foca em possuir grandes quantidades de armas relativamente baratas prontas para uso, em vez de depender apenas de poucas plataformas extremamente caras.
O drone reutilizável MQ-9 Reaper, por exemplo, custa entre US$ 20 milhões e US$ 40. A ideia é que possam ser produzidas por diferentes fabricantes, o que aumenta o seu volume.
Unidades iranianas foram capturadas no leste europeu, estudadas pelos americanos e reconstruídas por meio de engenharia reversa. O sistema teve um desenvolvimento acelerado, estreando em combate apenas oito meses após sua apresentação oficial no Pentágono, em julho de 2025.
Conectados via satélite por terminais da Starlink, os aparelhos são usados para ataques únicos. Com 18 kg de explosivos cada, é como se fossem bombas altamente inteligentes. Ao site especializado “The War Zone”, um oficial americano contou que os LUCAS têm coordenação autônoma, o que permite que eles realizem táticas de “enxame”. Ou seja, várias unidades podem voar juntas e se reagrupar em caso algumas delas sejam atingidas — em algumas situações isso é visto como uma vantagem técnica de ataque.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2024/R/W/7MhnYtT4mXZcp99kJB5g/whatsapp-image-2024-04-14-at-11.45.06.jpeg)
Na operação Fúria Épica, ele foi usado para complementar o trabalho de caças F-35 e mísseis Tomahawk, servindo especificamente para eliminar sistemas de radares antiaéreos e "cegar" a defesa iraniana.
É nesse ponto onde hardware e software se encontram com apoio humano, como explica Peron:
— Você solta uma série de drones e eles ficam pairando no ar e pode vir uma recomendação do Claude para algum deslocamento. Você dá as coordenadas e, automaticamente, ele atualiza a rota. Em alguns casos, os drones têm capacidade de desviar de contra-ataques.
Ou seja, um oficial americano, em conjunto com o chatbot inteligente, dá coordenadas simples para os drones se organizarem. A evolução desse modelo, que tende a reduzir e simplificar ainda mais o papel humano, parecia ameaçado pelo rompimento entre Anthropic e o governo americano, mas isso não vai acontecer. A OpenAI, principal rival da Anthropic atualmente, fechou contrato com o Pentágono.
Fonte:https://oglobo.globo.com/mundo/noticia/2026/03/05/chatbots-vao-a-guerra-como-ia-generativa-e-drones-kamikazes-transformaram-a-guerra-no-oriente-medio.ghtml
Comentários
Postar um comentário