Uma análise sobre como os agentes estão revolucionando a governança tradicional e a parceria da OneTrust com o projeto AGNTCY.
Os agentes de IA estão reescrevendo as regras da governança corporativa. Inteligentes e autônomos, os agentes tomam decisões independentes, acessam dados sensíveis e executam ações sem intervenção humana. Eles operam em uma velocidade e escala que a governança convencional não consegue acompanhar. O resultado é uma perigosa lacuna de governança, na qual decisões críticas acontecem mais rápido do que os mecanismos de supervisão conseguem responder. Para equipes de privacidade, risco, dados e compliance, isso representa uma ruptura fundamental com os métodos tradicionais e exige uma reimaginação completa de como governar sistemas inteligentes.
Por que a governança tradicional falha para agentes de IA?
A governança tradicional é construída para sistemas convencionais que executam tarefas predefinidas e seguem roteiros previsíveis, o que significa que os agentes de IA representam um desafio que as organizações não podem ignorar: como governar algo projetado para raciocinar, planejar e adaptar ações dinamicamente? O antigo modelo de permissões estáticas e auditorias de conformidade posteriores simplesmente não consegue abarcar tecnologias que aprendem, se adaptam e agem por conta própria.
Essa capacidade emergente de raciocínio significa que os agentes podem, inadvertidamente, reutilizar dados de maneiras nunca previstas, podendo causar uso indevido de dados ou violações regulatórias. É evidente que governar agentes de IA exigirá uma estrutura tecnológica e estratégica completamente nova.
Os fundamentos da governança eficaz de agentes de IA
Para governar agentes de IA de forma eficaz, as organizações precisam abordar três áreas fundamentais:
- Protocolos padronizados com reconhecimento de intenção: agentes de IA devem usar protocolos de comunicação padronizados, como AGNTCY, o Protocolo de Contexto de Modelo (MCP) da Anthropic e o protocolo Agente para Agente (A2A) do Google. Esses protocolos permitem que os agentes interpretem as intenções e restrições operacionais uns dos outros. Eles precisam ser aprimorados para incorporar ainda mais privacidade, finalidade e limites de uso nessas trocas, para que os agentes possam colaborar com segurança e reduzir o risco de desalinhamento ou comportamento indesejado.
- Contexto baseado em princípios: em vez de depender exclusivamente de regras de conformidade estáticas, os agentes de IA devem operar sob princípios fundamentais incorporados em seus processos de tomada de decisão. Abordagens como a constituição de IA da Anthropic oferecem modelos iniciais para isso. Além do treinamento em LLM (Learning Learning Machine), esses princípios devem ser inseridos no contexto do modelo durante a inferência para garantir que os agentes respeitem as normas de privacidade, os requisitos de conformidade e os padrões éticos.
- Controles baseados em finalidade: os controles de governança devem ser adaptáveis e levar em consideração a finalidade. Os agentes devem entender a finalidade específica para a qual os dados foram concedidos e aplicar limitações em tempo real. Com esses controles implementados, os agentes podem impor restrições de uso de forma autônoma e reduzir o risco de compartilhamento não intencional de dados.
Governança da colaboração multiagente
À medida que os agentes começam a colaborar, surge outro desafio crítico de governança: garantir que a intenção original, as obrigações de conformidade e as diretrizes operacionais acompanhem a tarefa. Quando um agente delega uma tarefa a outro, ele deve transmitir não apenas as instruções, mas também os limites dentro dos quais a tarefa deve ser executada.
Isso reflete a forma como os seres humanos gerenciam projetos sensíveis hoje em dia. Considere uma iniciativa multifuncional envolvendo as áreas jurídica, de engenharia, de marketing e um parceiro externo. Quando as responsabilidades são transferidas, as equipes também passam adiante o contexto crítico, como objetivo do projeto, restrições legais, termos de confidencialidade, diretrizes da marca e expectativas em relação ao tratamento de dados. Sem esse entendimento compartilhado, os erros são inevitáveis.
Os agentes de IA exigem a mesma clareza. A transferência de tarefas deve incluir pacotes de contexto estruturados que abordem a finalidade dos dados, o consentimento, os limites regulatórios e as restrições éticas. À medida que os ecossistemas multiagentes crescem, esse tipo de colaboração sensível ao contexto será essencial.
OneTrust e o Projeto AGNTCY
Ao aderir ao projeto AGNTCY, agora parte da Linux Foundation, a OneTrust pode colaborar com as empresas mais influentes do mundo em dados e IA para atender a essas necessidades críticas de governança. Por meio do AGNTCY, as organizações se beneficiam de um ecossistema aberto e colaborativo que promove identidades de agentes seguras, comunicação confiável e observabilidade abrangente. Essa iniciativa é fundamental para construir uma infraestrutura de governança preparada para o futuro, onde transparência, interoperabilidade e confiança são essenciais para todas as interações dos agentes. Por meio dessa colaboração, as organizações podem promover a inovação sem comprometer a conformidade ou os direitos individuais.
Texto original publicado pela OneTrust. Traduzido e adaptado pela Nexoria. Leia aqui


