Thank you for sending your enquiry! One of our team member will contact you shortly.
Thank you for sending your booking! One of our team member will contact you shortly.
Programa do Curso
Introdução
- Redes neuronais artificiais versus algoritmos baseados em árvores de decisão
Visão geral das características do XGBoost
- Elementos de um algoritmo Gradient Boosting
- Foco na velocidade de computação e no desempenho do modelo
- XGBoost vs Regressão Logística, Random Forest, e Gradient Boosting padrão
A evolução dos algoritmos baseados em árvores
- Árvores de decisão, Bagging, Random Forest, Boosting, Gradient Boosting
- Otimização do sistema
- Melhorias algorítmicas
Preparar o ambiente
- Instalação de SciPy e scikit-learn
Criar um modelo XGBoost
- Descarregar um conjunto de dados
- Resolvendo um problema comum de classificação
- Treinar o modelo XGBoost para classificação
- Resolver uma tarefa de regressão comum
Monitorização do desempenho
- Avaliação e comunicação do desempenho
- Paragem precoce
Traçar características por importância
- Cálculo da importância das características
- Decidir que variáveis de entrada devem ser mantidas ou descartadas
Configuração do Gradient Boosting
- Rever as curvas de aprendizagem nos conjuntos de dados de treino e validação
- Ajustar a taxa de aprendizagem
- Ajustar o número de árvores
Afinação de hiperparâmetros
- Melhorar o desempenho de um modelo XGBoost
- Conceber uma experiência controlada para ajustar os hiperparâmetros
- [Combinações de parâmetros
Criar um pipeline
- Incorporação de um modelo XGBoost em um pipeline de aprendizado de máquina de ponta a ponta
- Ajuste de hiperparâmetros dentro do pipeline
- Técnicas avançadas de pré-processamento
Resolução de problemas
Resumo e conclusão
Requisitos
- Experiência na redação de modelos de aprendizagem automática
Público
- Cientistas de dados
- Engenheiros de aprendizagem automática
14 horas