Por que o BOLA se tornou o principal risco de segurança em ambientes com agentes de IA

por | janeiro 2026 | Sem Categoria | 0 Comentários

A adoção de agentes de inteligência artificial deixou de ser um experimento restrito a áreas de inovação. Cada vez mais, empresas utilizam agentes para automatizar tarefas críticas: acessar bases de dados, integrar sistemas internos, executar fluxos financeiros, acionar serviços de terceiros e operar processos de negócio em escala. 

Esse avanço traz ganhos claros de eficiência, mas também inaugura uma nova superfície de risco. Em ambientes chamados de agentic, onde agentes de IA não apenas analisam informações, mas executam ações reais, o principal vetor de ataque não está no prompt ou no modelo em si, está nas APIs que permitem que essas ações aconteçam. 

É nesse contexto que o BOLA (Broken Object Level Authorization) passa a ocupar o centro do debate sobre segurança, como destacado recentemente pela Salt Security em sua análise sobre riscos em ambientes agentic. 

O que é BOLA e por que ele continua tão perigoso 

BOLA é uma falha de autorização em nível de objeto. Em termos simples, ocorre quando uma API permite que um usuário, ou um agente, acesse ou modifique um recurso apenas informando um identificador válido, sem verificar se aquele solicitante realmente tem permissão para aquele objeto específico. 

Na prática, isso acontece quando endpoints aceitam parâmetros como id, orderId ou customerId e não validam corretamente se o recurso solicitado pertence à identidade autenticada. Ao alterar esse identificador, um atacante pode acessar dados de outros usuários, clientes ou sistemas. 

Não por acaso, o BOLA ocupa a primeira posição no OWASP API Security Top 10. Ele é uma das falhas mais exploradas em aplicações modernas justamente por ser simples de testar, difícil de detectar com ferramentas tradicionais e extremamente comum em arquiteturas orientadas a APIs. 

Por que agentes de IA amplificam o impacto do BOLA 

O que muda em ambientes com agentes de IA não é a existência do BOLA, mas a escala e a velocidade do impacto. 

Como aponta a Salt Security, agentes operam em ritmo de máquina. Se um agente tiver acesso a uma API com autorização mal implementada, ele pode iterar automaticamente por centenas ou milhares de objetos em segundos. O que antes exigia esforço manual passa a acontecer de forma automática e silenciosa. 

Além disso, cada chamada individual pode parecer legítima. Do ponto de vista de um gateway tradicional, são apenas requisições válidas, autenticadas e bem formadas. O problema só se revela quando se observa o padrão de comportamento ao longo do tempo, algo que exige visibilidade específica sobre APIs e lógica de negócio. 

Outro fator crítico destacado pela Salt é a proliferação de integrações rápidas para suportar agentes de IA. Servidores auxiliares, ferramentas internas e implementações baseadas em protocolos como MCP (Model Context Protocol) muitas vezes surgem fora do radar das equipes de segurança. Sem inventário e governança adequados, essas integrações se tornam novas “APIs invisíveis”, criando terreno fértil para falhas de autorização como o BOLA. 

Autonomia excessiva e risco sistêmico 

Em ambientes agentic, é comum conceder aos agentes permissões amplas para acelerar entregas. No entanto, essa autonomia excessiva, chamada no OWASP Top 10 para LLMs de excessive agency, transforma falhas de autorização em riscos sistêmicos. 

Quando um agente possui tokens amplos, escopos genéricos e acesso irrestrito a múltiplos sistemas, uma falha de BOLA deixa de ser um incidente pontual e passa a representar risco financeiro, operacional e reputacional em larga escala. 

Como a segurança de APIs precisa evoluir nesse cenário 

A mitigação do BOLA em ambientes agentic exige mais do que boas práticas pontuais. É necessário combinar governança, visibilidade e detecção de abuso lógico, exatamente o tipo de abordagem defendida pela Salt Security em sua estratégia de segurança de APIs. 

Entre os pontos fundamentais estão: 

  • Autorização em nível de objeto, validada no backend para cada requisição, independentemente de autenticação bem-sucedida. 
  • Inventário contínuo de APIs, incluindo aquelas expostas por agentes, integrações internas e servidores MCP. 
  • Monitoramento comportamental, capaz de identificar enumeração de objetos, acesso fora de perfil e padrões incompatíveis com o uso legítimo. 
  • Controle de escopo e permissões, evitando tokens amplos e reduzindo a autonomia do agente ao mínimo necessário. 

A proposta da Salt Security se destaca justamente por tratar BOLA como um problema de lógica de negócio e comportamento, não apenas como uma falha de configuração isolada. 

O papel dos canais e integradores 

Para muitas organizações, o desafio não está apenas em entender o risco, mas em saber como tratá-lo de forma prática. Canais, integradores e MSPs têm um papel central nesse processo: ajudar clientes a revisar arquiteturas, fortalecer controles de autorização, implementar visibilidade sobre APIs e criar governança para o uso de agentes de IA. 

Nesse contexto, soluções especializadas em API Security, como as oferecidas pela Salt Security, tornam-se componentes estratégicos para viabilizar a adoção segura de agentes em ambientes corporativos. 

À medida que agentes de IA ganham autonomia e escala, falhas clássicas como o BOLA deixam de ser apenas problemas técnicos e passam a ser riscos estruturais. Proteger aplicações agentic exige menos foco em promessas abstratas de “IA segura” e mais atenção aos fundamentos: autorização correta, governança de APIs e visibilidade sobre o comportamento real dos sistemas. 

É exatamente nessa interseção entre APIs, lógica de negócio e automação inteligente que a Salt Security posiciona sua proposta, e onde empresas precisarão investir se quiserem escalar o uso de agentes de IA com segurança. 

 

Fontes 

Salt Security — The Silent Threat to the Agentic Enterprise: Why BOLA is the #1 Risk for AI Agents 

OWASP Foundation — OWASP API Security Top 10 

OWASP Foundation — Broken Object Level Authorization (API1:2023) 

OWASP Foundation — Top 10 for Large Language Model Applications 

Model Context Protocol (MCP) — Documentação oficial