3 formas como atacantes usam IA para burlar sistemas de detecção
- Denis Riviello

- 12 de fev.
- 2 min de leitura

A inteligência artificial tem sido chamada de “a grande arma da transformação digital”. Mas, como toda tecnologia poderosa, ela também tem seu lado sombrio.
Segundo o relatório da ENISA (Agência Europeia de Cibersegurança, 2023), o uso de IA em ataques cibernéticos está crescendo em velocidade recorde. Isso porque os mesmos algoritmos que ajudam empresas a detectar ameaças podem ser usados por atacantes para esconder essas ameaças.
Aqui estão três formas principais como isso já está acontecendo:
1. Automação de ataques com IA
Ataques manuais ficaram para trás. Hoje, criminosos treinam IA para gerar e testar milhares de variações de malware em questão de horas.
O objetivo é encontrar aquela versão que passa despercebida pelos sistemas de defesa. A IBM X-Force já reportou que esse tipo de automação reduziu em 40% o tempo médio entre o desenvolvimento e a execução de um ataque bem-sucedido.
Quanto mais rápido e barato criar mutações de malware, mais difícil para as empresas manterem a detecção atualizada.
2. Evasão de padrões com IA
Sistemas de segurança baseados em assinaturas e comportamentos dependem de padrões. E é justamente isso que atacantes aprenderam a explorar.
Com machine learning, eles treinam modelos para imitar tráfego legítimo, seja de aplicações SaaS, seja de acessos internos.
O Relatório de Ameaças da Palo Alto Networks (2024) aponta que mais de 60% das novas variantes de ataque em nuvem já incluem algum grau de “disfarce comportamental”, dificultando o trabalho dos SOCs.
Na prática, isso significa que um ataque pode “parecer” um login de funcionário, um upload rotineiro ou até mesmo uma chamada de API legítima.
3. Manipulação de linguagem com IA
Com a popularização dos chatbots corporativos, surge uma nova superfície de ataque: a engenharia de prompts.
Técnicas conhecidas como prompt injection permitem que atacantes manipulem modelos de linguagem para:
Extrair dados sensíveis.
Contornar restrições de segurança.
Executar ações que não deveriam ser autorizadas.
O MITRE já catalogou ataques de prompt injection como uma das principais ameaças emergentes em IA, destacando que 70% das empresas que adotaram LLMs não possuem controles específicos para esse risco.
A inteligência artificial não tornou os ataques inevitáveis, mas mudou o jogo. A defesa precisa evoluir do mesmo jeito: com visibilidade integrada, monitoramento inteligente e governança capaz de acompanhar a velocidade dos atacantes.
No fim, não se trata de temer a IA, mas de entender que quem não souber usá-la a favor da segurança estará sempre em desvantagem.




Comentários