A inteligência artificial como forma superior de administração da violência, da guerra e da repressão política.
O conflito recente entre o aparato de segurança dos Estados Unidos e empresas de inteligência artificial não foi um ruído passageiro nem um detalhe técnico do debate sobre governança digital. Ele funcionou como uma fenda no discurso público cuidadosamente construído em torno da inteligência artificial. Pela primeira vez de forma explícita, tornou-se visível uma disputa central do nosso tempo: quem controla a decisão violenta quando ela deixa de ser formulada no campo político e passa a ser operacionalizada por sistemas técnicos.
No final de janeiro de 2026, veio a público um impasse direto entre o Departamento de Defesa dos Estados Unidos e a empresa de inteligência artificial Anthropic. O ponto de fricção não foi desempenho técnico, cronograma ou orçamento. Foi a recusa do Pentágono em aceitar restrições operacionais impostas pela empresa ao uso de seus modelos em atividades de segurança nacional, incluindo vigilância e aplicações militares sensíveis. Em termos simples, o Estado norte-americano deixou claro que não reconhece limites privados quando se trata de empregar inteligência artificial como instrumento de poder.
A polêmica foi rapidamente enquadrada, em parte da imprensa, como um debate sobre governança da IA ou responsabilidade corporativa. Essa leitura é insuficiente. O conflito revelou algo muito mais estrutural: a disputa sobre quem controla a decisão violenta quando ela deixa de ser formulada no campo político visível e passa a ser operacionalizada por sistemas técnicos. Ao afirmar que práticas consideradas legais no ordenamento doméstico não podem ser constrangidas por políticas internas de empresas, o Department of Defense sinalizou que a inteligência artificial deve ser integrada às engrenagens do Estado como extensão direta do monopólio da força.
Esse episódio não é um detalhe setorial nem uma querela circunstancial entre governo e mercado. Ele funciona como uma janela privilegiada para compreender uma transformação histórica em curso. A inteligência artificial não está sendo incorporada à segurança como ferramenta auxiliar, mas como infraestrutura decisória. Vigilância, classificação de riscos, priorização de alvos e definição de respostas passam a operar como processos contínuos, mediados por sistemas opacos, protegidos por legalidades domésticas e blindados por linguagem técnica. A violência deixa de aparecer como exceção e passa a funcionar como rotina administrada.
A partir desse ponto, o debate deixa de ser sobre ética abstrata e passa a ser sobre poder concreto. Quando a coerção é convertida em procedimento algorítmico, ela se apresenta como consequência lógica de dados, modelos e probabilidades, não como escolha política deliberada. A narrativa da neutralidade tecnológica colapsa. Sistemas treinados para prever comportamentos e reduzir incertezas não surgem em um vazio social. Eles são produzidos em um estágio avançado do capitalismo, marcado pela centralização de dados e pela fusão entre Estado, indústria tecnológica e complexo militar. A inteligência artificial não é capturada pelo poder. Ela nasce dentro dele.
O que se consolida, a partir daí, é uma forma superior de coerção. A decisão violenta deixa de ocorrer em momentos identificáveis de deliberação pública e passa a ser distribuída ao longo de cadeias técnicas que diluem responsabilidade e dificultam a contestação. O operador valida, o sistema recomenda, a ação acontece. O conflito perde sua forma política reconhecível e passa a ser tratado como problema de gestão. É nesse deslocamento que a violência deixa de se anunciar como exceção e passa a operar como algoritmo.
A inteligência artificial não está sendo incorporada às estruturas de segurança como ferramenta auxiliar ou inovação incremental. Ela está sendo integrada como infraestrutura estratégica da decisão. Vigilância, classificação de riscos, priorização de alvos, monitoramento de populações e definição de respostas passam a operar como processos contínuos, mediados por sistemas opacos, protegidos por legalidades domésticas e blindados por linguagem técnica. A violência deixa de aparecer como exceção e passa a funcionar como rotina administrada.
Essa mudança representa uma inflexão histórica profunda. Durante séculos, a violência de Estado precisou se apresentar como escolha política visível. Mesmo quando brutal, ela exigia justificativa pública, narrativa legitimadora e delimitação temporal. A inteligência artificial rompe esse padrão. Quando a coerção é convertida em processo algorítmico, ela se apresenta como consequência lógica de dados, modelos e probabilidades. O ato político desaparece atrás do procedimento técnico.
A narrativa da neutralidade tecnológica sempre serviu como cobertura ideológica para esse movimento. No caso da inteligência artificial, ela se torna insustentável. Sistemas treinados para prever comportamentos, detectar padrões e reduzir incertezas não surgem em um vazio social. Eles são produzidos em um estágio avançado do capitalismo, marcado por centralização de dados, financeirização extrema e fusão entre Estado, indústria tecnológica e complexo militar. A inteligência artificial não é capturada pelo poder. Ela nasce dentro dele.
O que se consolida é uma forma superior de coerção, que pode ser descrita como violência algorítmica. Não se trata da eliminação do humano do processo decisório, mas de sua reorganização. A decisão violenta deixa de ocorrer em momentos identificáveis de deliberação política e passa a ser distribuída ao longo de cadeias técnicas. O operador valida, o sistema recomenda, a ação acontece. A responsabilidade se dilui sem desaparecer. O conflito perde sua forma política reconhecível e passa a ser tratado como problema de gestão.
Essa lógica não se limita ao campo de batalha. A fronteira entre guerra externa e controle interno se dissolve de maneira silenciosa. Tecnologias concebidas para ambientes hostis passam a operar no cotidiano das sociedades, convertendo mobilizações políticas em variáveis de risco, dissenso em anomalia e participação em indicador a ser monitorado. A coerção não precisa mais se manifestar de forma espetacular para produzir efeitos profundos. Ela se torna permanente, antecipatória e difusa.
No plano informacional, essa transformação atinge seu grau mais sofisticado. A inteligência artificial permite mapear fluxos discursivos, modular visibilidade e interferir na formação do sentido coletivo em escala industrial. A violência assume uma forma não letal, mas não menos eficaz. Ela fragmenta, confunde e desgasta. Ao controlar a percepção, controla-se o conflito. A guerra não desaparece. Ela se desloca para o campo cognitivo, onde seus efeitos são mais difíceis de identificar e mais lentos de reverter.
Estados que disputam hegemonia compreenderam rapidamente o valor estratégico dessa arquitetura. Estados Unidos e Israel não devem ser analisados como exceções morais ou desvios autoritários, mas como vanguarda operacional de um modelo emergente. Ambos operam sob lógica de conflito permanente e integraram a inteligência artificial às cadeias de segurança como resposta racional a guerras assimétricas, instabilidade regional e pressão política constante. A técnica permite reduzir custos políticos, acelerar decisões e manter coerção contínua sem necessidade de confrontos declarados.
Esse modelo não permanece restrito a esses Estados. Ele é exportado. Não apenas na forma de equipamentos ou softwares, mas como doutrina. Sistemas de vigilância, análise preditiva e controle informacional são apresentados como soluções neutras de modernização. O que se importa junto com a tecnologia é uma lógica de governo baseada na antecipação do conflito, na normalização da exceção e na centralização técnica da decisão violenta. A soberania formal se preserva. A soberania real se estreita.
Para que essa arquitetura se sustente, é necessário um discurso legitimador. Esse discurso atende pelo nome de ética. Não uma ética que interrompe ou questiona a finalidade da violência, mas uma ética que a organiza. Protocolos, guardrails, comitês e relatórios funcionam como tecnologias de gestão do risco político e reputacional. A violência não é posta em questão em seu núcleo. Ela é apenas regulada em sua forma. O debate desloca-se da legitimidade para a conformidade.
O resultado é uma violência eficiente, contínua e silenciosa. Quando decisões fundamentais são encapsuladas na técnica, a política perde centralidade. Não por censura direta, mas por deslocamento estrutural. A coerção aparece como procedimento, o conflito como falha de sistema, a contestação como ruído. A democracia não é abolida. Ela é progressivamente esvaziada.
A questão decisiva do nosso tempo não é se a inteligência artificial pode ser usada para a violência. Ela já está sendo usada. A questão central é quem decide, como decide e sob quais limites, quando a decisão deixa de ser pública e passa a ser algorítmica. Enquanto essas escolhas permanecerem ocultas sob a aparência de eficiência técnica, a violência seguirá seu curso mais eficaz, administrada, contínua e politicamente invisível.
Este texto apresenta apenas o eixo central dessa transformação histórica. A análise completa, com o encadeamento estrutural, os mecanismos técnicos e as implicações para soberania, democracia e guerra no século XXI, está desenvolvida no ensaio integral publicado em codigoaberto.net. Ler o texto completo não é aprofundamento opcional. É condição para compreender o poder que já está em operação.
Leia a reflexão completa em <código aberto>
Foto: Freepik
FONTE: https://www.brasil247.com/blog/quando-a-violencia-vira-algoritmo