nx-botton
Por que os agentes de IA exigem novas abordagens de governança?

Por que os agentes de IA exigem novas abordagens de governança?

Uma análise sobre como os agentes estão revolucionando a governança tradicional e a parceria da OneTrust com o projeto AGNTCY. 

 Os agentes de IA estão reescrevendo as regras da governança corporativa. Inteligentes e autônomos, os agentes tomam decisões independentes, acessam dados sensíveis e executam ações sem intervenção humana. Eles operam em uma velocidade e escala que a governança convencional não consegue acompanhar. O resultado é uma perigosa lacuna de governança, na qual decisões críticas acontecem mais rápido do que os mecanismos de supervisão conseguem responder. Para equipes de privacidade, risco, dados e compliance, isso representa uma ruptura fundamental com os métodos tradicionais e exige uma reimaginação completa de como governar sistemas inteligentes. 

Por que a governança tradicional falha para agentes de IA? 

A governança tradicional é construída para sistemas convencionais que executam tarefas predefinidas e seguem roteiros previsíveis, o que significa que os agentes de IA representam um desafio que as organizações não podem ignorar: como governar algo projetado para raciocinar, planejar e adaptar ações dinamicamente? O antigo modelo de permissões estáticas e auditorias de conformidade posteriores simplesmente não consegue abarcar tecnologias que aprendem, se adaptam e agem por conta própria. 

Essa capacidade emergente de raciocínio significa que os agentes podem, inadvertidamente, reutilizar dados de maneiras nunca previstas, podendo causar uso indevido de dados ou violações regulatórias. É evidente que governar agentes de IA exigirá uma estrutura tecnológica e estratégica completamente nova. 

Os fundamentos da governança eficaz de agentes de IA 

Para governar agentes de IA de forma eficaz, as organizações precisam abordar três áreas fundamentais: 

  1. Protocolos padronizados com reconhecimento de intenção:  agentes de IA devem usar protocolos de comunicação padronizados, como AGNTCY, o Protocolo de Contexto de Modelo (MCP) da Anthropic e o protocolo Agente para Agente (A2A) do Google. Esses protocolos permitem que os agentes interpretem as intenções e restrições operacionais uns dos outros. Eles precisam ser aprimorados para incorporar ainda mais privacidade, finalidade e limites de uso nessas trocas, para que os agentes possam colaborar com segurança e reduzir o risco de desalinhamento ou comportamento indesejado. 
  2. Contexto baseado em princípios:  em vez de depender exclusivamente de regras de conformidade estáticas, os agentes de IA devem operar sob princípios fundamentais incorporados em seus processos de tomada de decisão. Abordagens como a constituição de IA da Anthropic oferecem modelos iniciais para isso. Além do treinamento em LLM (Learning Learning Machine), esses princípios devem ser inseridos no contexto do modelo durante a inferência para garantir que os agentes respeitem as normas de privacidade, os requisitos de conformidade e os padrões éticos. 
  3. Controles baseados em finalidade:  os controles de governança devem ser adaptáveis ​​e levar em consideração a finalidade. Os agentes devem entender a finalidade específica para a qual os dados foram concedidos e aplicar limitações em tempo real. Com esses controles implementados, os agentes podem impor restrições de uso de forma autônoma e reduzir o risco de compartilhamento não intencional de dados. 

Governança da colaboração multiagente 

À medida que os agentes começam a colaborar, surge outro desafio crítico de governança: garantir que a intenção original, as obrigações de conformidade e as diretrizes operacionais acompanhem a tarefa. Quando um agente delega uma tarefa a outro, ele deve transmitir não apenas as instruções, mas também os limites dentro dos quais a tarefa deve ser executada. 

Isso reflete a forma como os seres humanos gerenciam projetos sensíveis hoje em dia. Considere uma iniciativa multifuncional envolvendo as áreas jurídica, de engenharia, de marketing e um parceiro externo. Quando as responsabilidades são transferidas, as equipes também passam adiante o contexto crítico, como objetivo do projeto, restrições legais, termos de confidencialidade, diretrizes da marca e expectativas em relação ao tratamento de dados. Sem esse entendimento compartilhado, os erros são inevitáveis. 

Os agentes de IA exigem a mesma clareza. A transferência de tarefas deve incluir pacotes de contexto estruturados que abordem a finalidade dos dados, o consentimento, os limites regulatórios e as restrições éticas. À medida que os ecossistemas multiagentes crescem, esse tipo de colaboração sensível ao contexto será essencial. 

OneTrust e o Projeto AGNTCY 

Ao aderir ao projeto AGNTCY, agora parte da Linux Foundation, a OneTrust pode colaborar com as empresas mais influentes do mundo em dados e IA para atender a essas necessidades críticas de governança. Por meio do AGNTCY, as organizações se beneficiam de um ecossistema aberto e colaborativo que promove identidades de agentes seguras, comunicação confiável e observabilidade abrangente. Essa iniciativa é fundamental para construir uma infraestrutura de governança preparada para o futuro, onde transparência, interoperabilidade e confiança são essenciais para todas as interações dos agentes. Por meio dessa colaboração, as organizações podem promover a inovação sem comprometer a conformidade ou os direitos individuais. 

Texto original publicado pela OneTrust. Traduzido e adaptado pela Nexoria. Leia aqui

Publicações recentes