Nas últimas semanas, céus europeus tornaram-se palco de uma inquietante coreografia. Drones não identificados cruzaram fronteiras da Dinamarca, sobrevoaram instalações estratégicas na Alemanha e despertaram uma sensação que o continente julgava ter superado: a vulnerabilidade. [1] A resposta veio rápida; planos de defesa aérea reforçados, novas legislações em curso e discursos inflamados sobre soberania tecnológica e segurança nacional.
Em Moscou, o chanceler russo negou qualquer envolvimento, mas a negação veio acompanhada de uma ameaça: o uso de “armas de destruição em massa” caso a Otan ousasse reagir. O tom, mais do que retórico, revelou uma velha tática em versão 4.0, uma guerra híbrida, onde a força militar se mistura à desinformação, à intimidação psicológica e ao teste calculado das instituições democráticas. [2].
Esses episódios não pertencem apenas à geopolítica europeia. São sinais de um tempo em que a tecnologia redefine as fronteiras entre guerra e paz, verdade e manipulação, segurança e vigilância.
Este artigo parte dessa constatação para discutir:
a) os riscos políticos e eleitorais associados ao uso militar e informacional de drones;
b) as estratégias de preparação institucional de países como o Brasil; e
c) as perspectivas regulatórias para o uso ético e seguro de sistemas de IA em contextos de conflito e poder.
Do risco ao impacto político-eleitoral
Por que essas incursões preocupam as democracias? Três vetores são centrais:
a) Erosão da confiança institucional
Em ambientes em que populações percebem que o Estado não consegue proteger infraestruturas críticas, instala-se um sentimento difuso de insegurança. Além disso, a guerra híbrida contemporânea não se limita ao campo físico. Ela se desloca para o domínio informacional, onde a convergência entre IA generativa e coleta massiva de dados pessoais inaugura uma nova etapa das chamadas “ameaças cognitivas”.
Segundo Pauwels (2024), essas tecnologias “democratizam” a desinformação, permitindo a criação de conteúdos falsos verossímeis dirigidos a perfis psicológicos e socioculturais específicos. No contexto eleitoral, o risco é direto: a micro-manipulação cognitiva com algoritmos que ajustam mensagens e emoções em tempo real para influenciar preferências políticas sem que o cidadão perceba.
O resultado é a erosão silenciosa da confiança institucional e da própria ideia de verdade pública. O relatório da Carnegie Endowment for International Peace (Dempsey, 2025) aponta como a Rússia vem sofisticando suas táticas de interferência eleitoral, usando IA generativa, perfis automatizados e deepfakes para moldar percepções e corroer a confiança pública.
O estudo adverte que esse modelo russo de guerra híbrida informacional tende a se expandir globalmente nos ciclos eleitorais de 2025 e 2026, à medida que as tecnologias se tornam mais acessíveis e difíceis de rastrear, o que reforça a urgência de mecanismos de transparência, rastreabilidade e regulação da IA voltados à integridade democrática.
b) Intimidação simbólica e efeito psicológico
Os drones que cruzam fronteiras sem disparar um único tiro ainda assim produzem impacto. Sua mera presença sobre territórios nacionais comunica uma mensagem silenciosa, porém inequívoca: ninguém está fora do alcance. É a política da vigilância aérea, uma forma de intimidação simbólica que atua menos pelo dano material e mais pela sensação de exposição constante.
Em tempos eleitorais, esse tipo de ameaça tem efeitos psicológicos profundos. O medo de interferências externas ou manipulações invisíveis age como desestímulo ao engajamento político, ao semear a suspeita de que os resultados já não refletem a vontade popular, mas a engenharia algorítmica de algum poder oculto.
Nesse cenário, a ascensão da IA generativa marca uma virada qualitativa. Diferentemente dos ciclos anteriores de manipulação digital, dependentes de exércitos humanos de bots e fábricas de conteúdo, os novos modelos de IA são autônomos, adaptativos e escaláveis. Essas ferramentas inauguram o que se pode chamar de “sugestionamento híbrido”, uma nova etapa das guerras cognitivas.
c) Modelo de guerra tropelada para operações de influência local
As tecnologias de guerra raramente permanecem restritas aos campos de batalha onde foram concebidas. O que começa como experimento geopolítico tende, cedo ou tarde, a ser importado, adaptado e reconfigurado para contextos internos. É o ciclo clássico da inovação bélica: da fronteira ao cotidiano.
O mesmo ocorre com os drones e os sistemas de IA embarcada. Ferramentas criadas para fins de defesa ou vigilância estatal podem facilmente ser reconvertidas em mecanismos de controle político e intimidação social. Imagine um cenário em que um governo autoritário ou mesmo grupos privados com acesso a tecnologia avançada utilizam drones autônomos para vigiar opositores, monitorar manifestações ou sabotar eventos públicos.
Essa lógica de guerra, em que instrumentos sofisticados de coerção são aplicados de forma improvisada e fora de controle civil, amplia o risco de contaminação das esferas locais por estratégias originalmente militares. Em países cujas instituições eleitorais ainda consolidam sua blindagem digital, essa vulnerabilidade é particularmente sensível.
A guerra híbrida contemporânea não exige invasão territorial. A fronteira, nesse caso, não é o espaço aéreo, é a integridade das instituições democráticas e da mente coletiva que as sustenta.
O Brasil e a necessidade de vigilância normativa
Os episódios recentes na Europa funcionam como alertas antecipados. O Brasil integra uma rede global de riscos e inovações em segurança digital, cibernética e autônoma. A questão central, portanto, não é se as ameaças chegarão, mas quando e de que forma se manifestarão. Alguns fatores tornam a atenção normativa especialmente urgente.
a) Importação e disseminação de tecnologia militar/autônoma
O país pode receber drones e IA de uso dual por meio de cooperação internacional ou canais comerciais. A corrida global pela automação bélica hoje envolve Estados, empresas e até grupos civis.
Segundo o War Room, U.S. Army War College (2025), o custo da inteligência de alvo caiu para US$ 25, demonstrando a “democratização da letalidade” e o potencial de uso indevido em contextos urbanos, como o do Rio de Janeiro, onde o uso indevido dessas ferramentas por grupos armados é plausível.
b) Contágio de playbooks autoritários
A guerra híbrida europeia funciona como laboratório simbólico para regimes e atores locais. Táticas de desinformação, vigilância política e manipulação psicológica são facilmente adaptadas a contextos internos, sob o pretexto de “segurança nacional”. O perigo é que o discurso de proteção se converta em instrumento de controle.
c) Eleições de 2025 e risco sistêmico
O ano de 2025 trará eleições decisivas em várias partes do mundo, inclusive no Brasil, onde a disputa presidencial ocorre em um ambiente ainda marcado pela polarização e pela desconfiança institucional. Em contextos assim, crises externas e narrativas de ameaça global tendem a repercutir internamente, legitimando ativismos institucionais e discursos de exceção em nome da “segurança nacional”, capazes de enfraquecer a vigilância democrática.
Perspectivas: regulação, dissuasão e resiliência democrática
O desafio brasileiro é equilibrar inovação e segurança, evitando que a mesma tecnologia que impulsiona o progresso seja instrumentalizada para corroer as bases da democracia.
Propõem-se três linhas estratégicas complementares nesse sentido:
a) Regulação tecnológica e restrição normativa
O Brasil precisa antecipar marcos legais específicos para o uso de drones e sistemas autônomos dotados de IA, sobretudo quando houver potencial ofensivo ou de vigilância política.
Deve-se proibir o emprego de sistemas letais autônomos sem supervisão humana significativa, bem como estabelecer padrões de responsabilidade civil e penal para fabricantes, operadores e autoridades que utilizem IA em contextos militares ou de segurança pública.
Essas normas devem dialogar com o princípio da precaução tecnológica, assegurando que qualquer uso de IA em contextos sensíveis seja acompanhado de mecanismos auditáveis de rastreabilidade, explicabilidade e controle humano.
b) Fortalecimento institucional e segurança eleitoral
A resiliência democrática depende da proteção integral das instituições eleitorais, não apenas contra ataques cibernéticos, mas também contra operações híbridas.
É necessário que órgãos como o Tribunal Superior Eleitoral (TSE) e o Gabinete de Segurança Institucional (GSI) adotem uma abordagem integrada de defesa, combinando simulações de ataque, auditorias técnicas, cooperação com agências de defesa e protocolos emergenciais de resposta coordenada.
Conclusão
Os episódios recentes na Europa e suas reverberações simbólicas revelam que a guerra contemporânea se infiltra pelas redes, pelos dados, pelos céus e, sobretudo, pelas percepções humanas. Ademais, a erosão da confiança institucional, a intimidação psicológica e a adaptação doméstica de tecnologias militares compõem um mosaico de ameaças que ultrapassa fronteiras e desafia categorias jurídicas tradicionais. O inimigo, agora, é difuso: parte máquina, parte narrativa, parte medo.
Nesse sentido, as democracias não são derrubadas por golpes repentinos, mas desgastadas pela fadiga da vigilância e pela saturação informacional. Tendo como risco a naturalização do controle, quando sociedades começam a aceitar a presença constante de olhos invisíveis e discursos fabricados como o preço inevitável da segurança.
Nesse contexto, o desafio brasileiro e de todas as democracias que ainda lutam por estabilidade é compreender que a neutralidade tecnológica é uma ilusão. Sistemas de IA, drones autônomos e ecossistemas de dados não são apenas ferramentas: são atores políticos, capazes de moldar comportamentos, decisões e crenças coletivas.
Proteger a democracia, portanto, exige mais do que legislar sobre o uso de armas inteligentes. Exige reconhecer que a informação tornou-se o novo território de disputa, e que a linha entre defesa e dominação é tênue.
________________________________
Notas
Ministério da Ciência, Tecnologia e Inovações. Estratégia Brasileira de Inteligência Artificial – E-IA Brasil. Brasília, DF, 2021. Disponível aqui.
DEMPSEY, Judy. Russian Interference: Coming Soon to an Election Near You. Brussels: Carnegie Endowment for International Peace, 6 fev. 2025. Disponível aqui.
PAUWELS, Eleonore. Preparing for Next-Generation Information Warfare with Generative AI. Waterloo, Ontario: Centre for International Governance Innovation (CIGI), nov. 2024. Disponível aqui.
TRIBUNAL SUPERIOR ELEITORAL (Brasil). Entenda como funciona o Ciedde e como denunciar via sistema. Brasília, DF, 7 maio 2024. Disponível aqui.
UNITED NATIONS. Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS): Report 2024. Geneva: United Nations Institute for Disarmament Research (UNIDIR), 2024. Disponível aqui.
WAR ROOM – U.S. Army War College. Artificial Intelligence’s Growing Role in Modern Warfare. Carlisle, Pennsylvania: U.S. Army War College, ago. 2025. Disponível aqui.
WASSENAAR ARRANGEMENT. The Wassenaar Arrangement on Export Controls for Conventional Arms and Dual-Use Goods and Technologies. Viena: Wassenaar Secretariat, 1996. Disponível aqui.
[1] REUTERS. Germany to take steps to defend itself against ‘high’ threat from drones. 27 set. 2025. Disponível aqui.
[2] G1. Na ONU, chanceler russo nega ataque com drones e diz que qualquer agressão da OTAN à Rússia terá resposta. 27 set. 2025. Disponível aqui.
—
O post Democracias em mira: o ensaio global das guerras invisíveis apareceu primeiro em Consultor Jurídico.