Programa do Curso

Introdução ao Modelo de Ameaças em IA

  • O que torna os sistemas de IA vulneráveis?
  • A superfície de ataque da IA versus sistemas tradicionais
  • Vetores de ataque principais: dados, modelo, saída e camadas de interface

Ataques Adversariais em Modelos de IA

  • Compreendendo exemplos adversariais e técnicas de perturbação
  • Ataques white-box vs black-box
  • Métodos FGSM, PGD e DeepFool
  • Visualizando e criando amostras adversarias

Inversão do Modelo e Fuga de Privacidade

  • Inferindo dados de treinamento a partir da saída do modelo
  • Ataques de inferência de associação
  • Riscos à privacidade em modelos de classificação e geração

Poisoning de Dados e Injeção de Backdoors

  • Como dados envenenados influenciam o comportamento do modelo
  • Backdoors baseadas em gatilhos e ataques Troia
  • Estratégias de detecção e sanitização

Robustez e Técnicas Defensivas

  • Treinamento adversarial e aumento de dados
  • Máscara de gradiente e pré-processamento de entrada
  • Técnicas de suavização do modelo e regularização

Defesas de IA que Preservam a Privacidade

  • Introdução à privacidade diferencial
  • Injeção de ruído e orçamentos de privacidade
  • Aprendizagem federada e agregação segura

AI Security na Prática

  • Avaliação e implantação de modelos com consciência de ameaças
  • Usando ART (Adversarial Robustness Toolbox) em cenários aplicados
  • Casos práticos da indústria: brechas e mitigações no mundo real

Resumo e Próximos Passos

Requisitos

  • Compreensão dos fluxos de trabalho de aprendizado de máquina e treinamento de modelos
  • Experiência com Python e frameworks ML comuns como PyTorch ou TensorFlow
  • Familiaridade com conceitos básicos de segurança ou modelagem de ameaças é útil

Público-alvo

  • Engenheiros de aprendizado de máquina
  • Analistas de cibersegurança
  • pesquisadores de IA e equipes de validação de modelos
 14 Horas

Número de participantes


Preço por Participante

Próximas Formações Provisórias

Categorias Relacionadas