Programa do Curso

Introdução à Modelagem de Ameaças de IA

  • O que torna os sistemas de IA vulneráveis?
  • Superfície de ataque de IA vs sistemas tradicionais
  • Vetores de ataque principais: camadas de dados, modelo, saída e interface

Ataques Adversários em Modelos de IA

  • Compreendendo exemplos adversários e técnicas de perturbação
  • Ataques white-box vs black-box
  • Métodos FGSM, PGD e DeepFool
  • Visualizando e criando amostras adversárias

Inversão de Modelo e Vazamento de Privacidade

  • Inferindo dados de treinamento a partir da saída do modelo
  • Ataques de inferência de membros
  • Riscos de privacidade em modelos de classificação e geração

Envenenamento de Dados e Injeções de Backdoor

  • Como dados envenenados influenciam o comportamento do modelo
  • Backdoors baseados em gatilhos e ataques Trojan
  • Estratégias de detecção e sanitização

Robustez e Técnicas Defensivas

  • Treinamento adversário e aumento de dados
  • Máscara de gradiente e pré-processamento de entrada
  • Técnicas de suavização e regularização de modelos

Defesas de IA que Preservam a Privacidade

  • Introdução à privacidade diferencial
  • Injeção de ruído e orçamentos de privacidade
  • Aprendizado federado e agregação segura

Segurança de IA na Prática

  • Avaliação e implantação ameaça-aware de modelos
  • Usando ART (Adversarial Robustness Toolbox) em configurações aplicadas
  • Estudos de caso da indústria: violações reais e mitigações

Resumo e Próximos Passos

Requisitos

  • Compreensão de fluxos de trabalho de aprendizado de máquina e treinamento de modelos
  • Experiência com Python e frameworks de ML comuns, como PyTorch ou TensorFlow
  • Familiaridade com conceitos básicos de segurança ou modelagem de ameaças é útil

Público-Alvo

  • Engenheiros de aprendizado de máquina
  • Analistas de cibersegurança
  • Pesquisadores de IA e equipes de validação de modelos
 14 Horas

Número de participantes


Preço por participante

Declaração de Clientes (1)

Próximas Formações Provisórias

Categorias Relacionadas