Obrigado por enviar sua consulta! Um dos membros da nossa equipe entrará em contato com você em breve.
Obrigado por enviar sua reserva! Um dos membros da nossa equipe entrará em contato com você em breve.
Programa do Curso
Introdução ao Modelo de Ameaças em IA
- O que torna os sistemas de IA vulneráveis?
- A superfície de ataque da IA versus sistemas tradicionais
- Vetores de ataque principais: dados, modelo, saída e camadas de interface
Ataques Adversariais em Modelos de IA
- Compreendendo exemplos adversariais e técnicas de perturbação
- Ataques white-box vs black-box
- Métodos FGSM, PGD e DeepFool
- Visualizando e criando amostras adversarias
Inversão do Modelo e Fuga de Privacidade
- Inferindo dados de treinamento a partir da saída do modelo
- Ataques de inferência de associação
- Riscos à privacidade em modelos de classificação e geração
Poisoning de Dados e Injeção de Backdoors
- Como dados envenenados influenciam o comportamento do modelo
- Backdoors baseadas em gatilhos e ataques Troia
- Estratégias de detecção e sanitização
Robustez e Técnicas Defensivas
- Treinamento adversarial e aumento de dados
- Máscara de gradiente e pré-processamento de entrada
- Técnicas de suavização do modelo e regularização
Defesas de IA que Preservam a Privacidade
- Introdução à privacidade diferencial
- Injeção de ruído e orçamentos de privacidade
- Aprendizagem federada e agregação segura
AI Security na Prática
- Avaliação e implantação de modelos com consciência de ameaças
- Usando ART (Adversarial Robustness Toolbox) em cenários aplicados
- Casos práticos da indústria: brechas e mitigações no mundo real
Resumo e Próximos Passos
Requisitos
- Compreensão dos fluxos de trabalho de aprendizado de máquina e treinamento de modelos
- Experiência com Python e frameworks ML comuns como PyTorch ou TensorFlow
- Familiaridade com conceitos básicos de segurança ou modelagem de ameaças é útil
Público-alvo
- Engenheiros de aprendizado de máquina
- Analistas de cibersegurança
- pesquisadores de IA e equipes de validação de modelos
14 Horas