O ano de 2025 marcou um ponto de inflexão na evolução da inteligência artificial generativa. A consolidação de modelos cada vez mais potentes, a disseminação dos agentes de IA e a introdução do protocolo MCP (Model Capability Protection) proposto pela OpenAI, evidenciaram que segurança e governança deixaram de ser preocupações futuras e passaram a ser exigências imediatas. Nesse contexto, a OWASP (referência global em segurança de aplicações) publicou uma nova lista dos 10 principais riscos de segurança para agentes de IA, trazendo uma contribuição essencial para o amadurecimento do setor.
Diferentemente dos modelos de linguagem tradicionais, os agentes de IA operam com maior autonomia: tomam decisões, interagem com sistemas externos, acessam ferramentas, mantêm memória e, muitas vezes, executam ações em nome de usuários ou organizações. Isso amplia significativamente a superfície de ataque e introduz riscos que não estão presentes em aplicações convencionais ou mesmo em LLMs isolados.
A nova lista da OWASP, chamada Top 10 for LLM Agents, foca justamente nesses riscos emergentes. Ela não repete ameaças já conhecidas como prompt injection ou data leakage de forma isolada, mas os incorpora dentro de categorias mais amplas e específicas ao comportamento autônomo dos agentes. A seguir, um panorama dos principais riscos identificados:
- Agent Goal Hijack: manipulação das entradas em linguagem natural para alterar os objetivos do agente, redirecionando sua atuação para finalidades maliciosas, como exfiltração de dados ou sabotagem de fluxos.
- Tool Misuse & Exploitation: uso indevido de ferramentas legítimas acessadas pelo agente, por meio de manipulação de instruções ou falhas de validação, levando à execução de comandos perigosos ou vazamento de informações.
- Identity & Privilege Abuse: falhas no escopo de permissões e na delegação dinâmica entre agentes, permitindo escalonamento de privilégios, uso indevido de credenciais ou acesso não autorizado a recursos.
- Agentic Supply Chain Vulnerabilities: riscos associados à cadeia de fornecimento de agentes, como prompts pré-carregados, modelos comprometidos ou conexões inseguras com MCPs e APIs externas.
- Unexpected Code Execution: execução de código não intencional, seja por geração insegura, desserialização de objetos ou exploração de payloads ocultos em instruções aparentemente inofensivas.
- Memory & Context Injection: contaminação de memórias ou contextos persistentes usados por agentes, resultando em decisões baseadas em informações falsas ou enviesadas.
- nsecure Inter-Agent Communication: ausência de autenticação, criptografia ou validação semântica nas trocas entre agentes, permitindo interceptação, manipulação ou replay de mensagens.
- Cascading Failures: falhas que se propagam entre agentes interconectados, amplificando riscos por meio de ações autônomas encadeadas.
- Human-Agent Trust Exploitation: exploração da confiança humana nos agentes, por meio de manipulação emocional, engenharia social ou respostas enganosas que levam a decisões inseguras.
- Rogue Agents: agentes comprometidos ou autônomos que se desviam de seus objetivos originais, replicam-se, colidem entre si ou operam fora dos limites definidos, representando riscos sistêmicos.
A publicação do Top 10 reforça a urgência de tratar agentes de IA como componentes críticos de segurança. A simples validação de prompts ou testes de funcionalidade não são suficientes. É necessário adotar uma abordagem arquitetural, com controles de escopo, validação de ações, isolamento de ferramentas, monitoramento contínuo e governança sobre permissões e comportamento.
Além disso, o documento da OWASP se alinha a outras iniciativas relevantes lançadas em 2025, como o protocolo MCP da OpenAI, que propõe um ciclo estruturado de avaliação de capacidades, contenção de riscos e resposta a incidentes em modelos de linguagem. A convergência dessas abordagens aponta para um novo patamar de maturidade na proteção de IA generativa, especialmente em ambientes corporativos e regulados. Para empresas que estão integrando agentes de IA em seus fluxos de trabalho, o Top 10 da OWASP é um guia essencial para estruturar práticas de segurança desde o design.
Mais do que uma lista de ameaças, ele representa um chamado à ação: proteger agentes de IA exige controles técnicos, processos bem definidos e uma governança que acompanhe a complexidade crescente desses sistemas.
A Nexoria acompanha de perto essas evoluções e trabalha com soluções líderes de mercado voltadas à proteção de IA, que ajudam organizações a implementar os controles recomendados pela OWASP e por frameworks regulatórios internacionais. Para saber mais sobre como estruturar uma abordagem segura e escalável para agentes de IA, entre em contato com nossa equipe.


