Programa do Curso

Fundamentos: Modelos de Ameaças para AI Agente

  • Tipos de ameaças agentes: mau uso, escalada, vazamento de dados e riscos da cadeia de suprimentos
  • Perfis de adversários e capacidades de ataque específicas para agentes autônomos
  • Mapeamento de ativos, fronteiras de confiança e pontos críticos de controle para agentes

Governança, Política e Gestão de Riscos

  • Frameworks de governança para sistemas agente (papéis, responsabilidades, portas de aprovação)
  • Design de políticas: uso aceitável, regras de escalada, manipulação de dados e auditabilidade
  • Considerações de conformidade e coleta de evidências para auditorias

Identidade Não-Humana & Autenticação para Agentes

  • Projetando identidades para agentes: contas de serviço, JWTs e credenciais de curta duração
  • Padrões de acesso com privilégio mínimo e credenciamento sob demanda
  • Ciclo de vida da identidade, rotação, delegação e revogação

Controles de Acesso, Segredos e Proteção de Dados

  • Modelos de controle de acesso granular e padrões baseados em capacidades para agentes
  • Gerenciamento de segredos, criptografia durante a transmissão e no armazenamento, e minimização de dados
  • Protegendo fontes de conhecimento sensíveis e PII do acesso não autorizado por agentes

Observabilidade, Auditoria e Resposta a Incidentes

  • Projetando telemetria para comportamento de agentes: rastreamento de intenções, logs de comandos e proveniência
  • Integração SIEM, limiares de alerta e prontidão forense
  • Manuais e guias para incidentes relacionados a agentes e contenção

Testes Adversos em Sistemas Agente

  • Planejando exercícios de red-team: escopo, regras de engajamento e failover seguro
  • Técnicas adversárias: injeção de prompts, mau uso de ferramentas, manipulação em cadeia de pensamento e abuso de API
  • Realizando ataques controlados e medindo exposição e impacto

Endurecimento e Mitigações

  • Controles de engenharia: limitação de resposta, controle de capacidades e sandboxing
  • Controles de política e orquestração: fluxos de aprovação, human-in-the-loop e ganchos de governança
  • Defesas ao nível do modelo e dos prompts: validação de entrada, canonização e filtros de saída

Implementando Implantações Seguras de Agentes

  • Padrões de implantação: estágios, lançamento canário e roteamento progressivo para agentes
  • Controle de mudanças, pipelines de teste e verificações de segurança pré-implantação
  • Governança multifuncional: manuais e guias de segurança, legal, produto e operações

Estudo Final: Exercício Red-Team / Blue-Team

  • Execute um ataque simulado de red-team contra um ambiente de agente sandboxed
  • Defenda, detecte e remedia como a equipe blue usando controles e telemetria
  • Apresente os resultados, o plano de remediação e as atualizações de políticas

Resumo e Próximos Passos

Requisitos

  • Sólida experiência em engenharia de segurança, administração de sistemas ou operações na nuvem
  • Familiaridade com conceitos de IA/ML e comportamento de modelos de linguagem grandes (LLM)
  • Experiência com gestão de identidade e acesso (IAM) e design seguro de sistemas

Público-Alvo

  • Engenheiros de segurança e red-teamers
  • Engenheiros de operações e plataforma de IA
  • Oficiais de conformidade e gerentes de risco
  • Líderes técnicos responsáveis por implantações de agentes
 21 Horas

Número de participantes


Preço por Participante

Próximas Formações Provisórias

Categorias Relacionadas