
O Pentágono apresentou pela primeira vez o Victor, um protótipo de assistente interno alimentado por dados de missões reais, projetado para ajudar seus soldados a encontrar informações úteis mais rapidamente em campo. Esta nova ferramenta promete reduzir erros repetidos de uma brigada para outra e acelerar o acesso ao conhecimento tático já acumulado pela instituição.
Chamado de Victor, esse protótipo chega de forma inesperada. A interface desenvolvida pelo Comando de Armas Combinadas lembra um fórum de discussão acoplado a um chatbot, o VictorBot. Seu objetivo é evitar que os soldados repitam os mesmos erros estratégicos em todas as missões. Se um soldado pesquisar, por exemplo, como configurar um sistema de guerra eletromagnética, a ferramenta gera uma resposta e links para publicações e comentários validados por outros membros das forças armadas.
Uma memória digital forjada por missões
Ao contrário das ferramentas de consumo, o Victor depende exclusivamente de dados militares internos e confidenciais dos EUA. Alex Miller, diretor de tecnologia do Exército, diz que o projeto já absorveu mais de 500 bancos de dados e se baseia nas lições aprendidas em missões recentes, incluindo a guerra Rússia-Ucrânia e a Operação Epic Fury. O objetivo é transmitir rapidamente as informações mais úteis, sem forçar os soldados a vasculhar documentos dispersos ou obsoletos.
“Temos todas essas lições aprendidas em missões como a Guerra Russo-Ucraniana e a Operação Epic Fury, há uma enorme quantidade de conhecimento disponível”, disse o Diretor de Tecnologia do Exército dos EUA, Alex Miller.
O exército também quer evoluir a plataforma para uma versão multimodal. Eventualmente, os militares poderão enviar imagens ou vídeos feitos em campo para obter análises mais completas. O sistema também deve limitar os erros citando suas fontes, um pouco como faz agora alguma IA de consumo.
Victor não é o único projeto desse tipo no exército americano. Diz-se que a tecnologia da Anthropic desempenhou um papel central no planeamento das operações no Irão, através de um sistema desenvolvido pela Palantir. Esta colaboração também levou a um tenso impasse entre a Anthropic e o Pentágono sobre os limites aceitáveis da IA militar. Estas iniciativas ilustram uma tendência subjacente: a integração acelerada destas ferramentas em operações militares reais, muito além da simples fase experimental.
Os limites da ferramenta
O projeto não está isento de riscos. Paul Scharre, antigo soldado e analista de segurança americano, acredita que a tendência dos modelos linguísticos de quererem agradar ao seu interlocutor pode tornar-se problemática num contexto militar, especialmente para análise de inteligência. Se uma resposta parecer convincente, mas for baseada numa interpretação errada, o erro pode custar caro.
O aumento do poder destes sistemas também levanta outra questão: a da segurança. Quanto mais autônoma a ferramenta se torna, mais ela deve ser protegida contra erros, apropriações indevidas e falhas. No entanto, o exército americano vê o Victor como um passo importante para uma adoção mais ampla deste tipo de ferramenta nas suas tarefas internas, desde utilizações de back-office até futuros sistemas de apoio à decisão.
👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.
Fonte :
Com fio