As empresas estão enfrentando um ponto cego crescente criado pela rápida ascensão de agentes de IA que agora realizam pesquisas, tomam decisões e efetuam transações ao longo de toda a jornada digital do comprador.
Em sua pesquisa recente, Act Now: Implement Comprehensive AI Agent Identity Measures to Navigate Automation Trends, a analista vice-presidente da Gartner, Avivah Litan, alerta que os controles tradicionais de identidade, acesso e automação não conseguem reconhecer ou governar esses novos atores autônomos.
A solução é uma nova disciplina chamada Gerenciamento de Identidade de Agentes de IA, que se concentra em identificar, verificar e governar as interações conduzidas por máquinas em toda a empresa.
A CHEQ foi reconhecida nessa pesquisa por sua inovação na detecção e classificação de Agentes de IA Anônimos que interagem com a Web, um caso de uso que a Gartner destaca como um dos desafios mais urgentes e complexos que as empresas enfrentam atualmente.
Entendendo os Agentes de IA Anônimos com Interface Web
Agentes de IA com interface web anônima são entidades de software autônomas ou semiautônomas que acessam sites e serviços públicos sem revelar sua identidade ou origem.
Esses agentes estão transformando a web, remodelando a jornada do comprador digital e ampliando a exposição das empresas a ameaças. Alguns operam dentro de limites autorizados, agindo de forma transparente em nome de usuários legítimos que aprovaram explicitamente suas ações. Outros agem sem divulgação, coletando dados, se passando por outras pessoas ou manipulando sistemas para obter ganhos financeiros ou operacionais.
- Bons agentes operam de forma transparente, dentro de parâmetros aprovados e em nome de uma pessoa ou organização legítima que tenha concedido permissão. Isso pode incluir credenciais compartilhadas, autoridade de transação limitada ou direitos de acesso definidos.
- Agentes maliciosos operam sem consentimento ou controle, muitas vezes explorando a automação para evitar a detecção, drenar recursos ou distorcer resultados.
O desafio não é mais simplesmente bloquear a automação, mas compreender a intenção e a autorização. As empresas precisam identificar quais agentes pertencem ao ambiente, quais não pertencem, e ter os controles adequados para governar ou mitigar as ações de ambos.
Por que o IAM legado e a mitigação de bots não conseguem acompanhar o ritmo
O ponto cego crítico de hoje existe porque os sistemas de identidade e as defesas contra a automação foram construídos para épocas diferentes.
Os sistemas tradicionais de Gestão de Identidade e Acesso (IAM) foram concebidos para humanos. Eles pressupõem credenciais, permissões estáticas e ciclos de vida previsíveis. Esses sistemas não conseguem acompanhar a natureza dinâmica e de alta velocidade dos agentes de IA. Senhas, MFA e modelos de acesso baseados em diretórios falham quando confrontados com entidades autônomas que surgem e desaparecem em milissegundos.
As ferramentas tradicionais de mitigação de bots enfrentam dificuldades por um motivo diferente. Elas foram criadas para impedir comportamentos repetitivos e programados, não inteligência adaptativa. As abordagens tradicionais focam em velocidade, volume ou navegadores sem interface gráfica e falham em compreender a intenção. Agentes de IA podem imitar o comportamento humano, adaptar táticas e colaborar entre sistemas, tornando as regras estáticas obsoletas.
Para eliminar essa lacuna, as empresas precisam de sistemas com reconhecimento de agentes que interpretem continuamente o contexto, a identidade e o comportamento em todas as interações digitais. A Gartner prevê que, até 2029, 75% das empresas implementarão sistemas com reconhecimento de agentes capazes de interagir com identidades de máquinas, mitigando os riscos impulsionados pela IA e apoiando atividades benéficas dos agentes.
A chegada de agentes exige uma reavaliação de como funcionam a detecção e a verificação. O Gerenciamento de Identidade de Agentes com IA se baseia nesses fundamentos, introduzindo novas camadas de inteligência comportamental, contextual e de identidade que as ferramentas legadas nunca foram projetadas para lidar.
Da detecção de bots à inteligência de agentes de IA
Na CHEQ, vemos o gerenciamento de identidade de agentes de IA como uma extensão natural do trabalho de detecção e inteligência que começou com o gerenciamento de bots. A detecção de bots continua sendo essencial para proteger o ecossistema digital, mas o surgimento de agentes autônomos e adaptáveis introduz novas dimensões de comportamento, contexto e identidade.
Embora ambas as disciplinas compartilhem uma base, elas interpretam a automação de maneiras diferentes. A detecção de bots se concentra na identificação de padrões de comportamento repetitivo ou programado, enquanto a detecção de agentes exige a compreensão de sistemas autônomos que agem de forma dinâmica e contextual.
A tabela abaixo destaca como nossa abordagem difere em aspectos-chave de detecção e como o Gerenciamento de Identidade de Agentes de IA expande os fundamentos da mitigação avançada de bots.
Como diferenciar bots de agentes de IA
Aspecto de detecção | Bots | Agentes de IA |
Indicadores de automação | Frameworks de script (como Selenium, Puppeteer) e navegadores sem interface gráfica. | Automação adaptativa e automodificável construída sobre estruturas de bots existentes. |
Abordagem de Impressão Digital | Características do dispositivo, propriedades do navegador e assinaturas de rede | Impressões digitais persistentes e probabilísticas que combinam características ambientais, comportamentais e declarativas. |
Sinais de atribuição | Validação de IP, ASN e agente do usuário | Sinais multidimensionais em dispositivos, redes e comportamentos, incluindo controle em nível de sistema operacional. |
Análise do navegador | Detecta atividades automatizadas por meio de elementos DOM injetados, instrumentação JavaScript e objetos de navegador adulterados. | Identifica padrões estruturais e comportamentais distintos em navegadores com IA integrada, incluindo atributos de extensão, IDs de elementos DOM e mecanismos postMessage. |
Afirmação de identidade | Detecta anomalias como viagens impossíveis ou dispositivos incompatíveis. | Vincula agentes recorrentes a usuários verificados e detecta impostores sem autorização legítima. |
Estrutura de confiança | Modelo binário de permissão/bloqueio | Confiança em múltiplas camadas que distingue, verifica e avalia a intenção comportamental. |
À medida que a automação evolui para a autonomia, a detecção deve evoluir com ela, garantindo que todas as interações (humanas ou não) sejam visíveis e controladas.
Para onde caminha a gestão de identidade de agentes de IA
A próxima fase da Gestão de Identidade de Agentes de IA se concentrará em conectar identidade, comportamento e confiança tanto de humanos quanto de seus agentes. À medida que a web se torna mais autônoma, as empresas precisam de inteligência capaz de ir além da automação e compreender as relações por trás de cada interação para saber em quais confiar.
- Conectando usuários e seus agentes. Construindo linhas de base comportamentais persistentes que conectam humanos verificados com seus agentes de IA autorizados, possibilitando rastreabilidade e confiança.
- Verificação da autenticidade do agente. Validação de credenciais, sinais declarados ou comerciais por meio de interconectividade em nível de rede e padrões comportamentais que confirmam o uso legítimo.
- Avaliando a intenção e a legitimidade. Passando da simples detecção para a compreensão da razão por trás da atividade, distinguindo a automação benéfica do abuso ou da manipulação.
- Afirmando a confiança de forma dinâmica. Estabelecendo avaliações de confiança em múltiplas camadas que se adaptam ao longo do tempo, reconhecendo agentes de IA como atores válidos que requerem verificação e afirmação contínua, em vez de bloqueio total.
É para isso que a Gestão de Identidade de Agentes de IA está caminhando: verificação contínua, compreensão contextual e confiança dinâmica.
O Imperativo Empresarial
Os agentes de IA já estão presentes em toda a jornada do comprador na maioria das empresas. Em alguns setores, eles já estão realizando transações, e o equilíbrio está mudando rapidamente.
Empresas que não conseguem identificar ou controlar os agentes de IA que interagem com elas enfrentam riscos crescentes. Além da exposição de dados, as consequências podem incluir perdas financeiras, danos à reputação, prejuízos ao consumidor e insights distorcidos que corroem a confiança e prejudicam a tomada de decisões em toda a empresa.
Ao mesmo tempo, a oportunidade é enorme. As empresas que implementarem o Gerenciamento de Identidade de Agentes de IA estarão em melhor posição para se manter à frente, agir mais rapidamente, construir uma confiança mais profunda com os clientes e desbloquear um novo crescimento, permitindo que agentes legítimos e criadores de valor operem com segurança e em escala.
A necessidade de gerenciamento de identidade para agentes de IA está se tornando cada vez mais evidente. À medida que os agentes de IA assumem um papel mais ativo na economia digital, as empresas precisam evoluir a forma como enxergam, compreendem e governam a automação. A identidade, antes gerenciada apenas para humanos, agora se estende aos sistemas autônomos que atuam em seu nome.
As organizações que agirem com antecedência definirão os padrões de confiança para esta nova era. Serão elas que poderão acolher com segurança agentes benéficos, prevenir o uso indevido e transformar a automação em vantagem.
Na era da IA, a confiança não é presumida. Ela é construída por meio de visibilidade, verificação e controle inteligente.
Texto original publicado pela CHEQ. Traduzido e adaptado pela Nexoria. Leia aqui.


