Programa do Curso

Introdução

  • Redes neuronais artificiais versus algoritmos baseados em árvores de decisão

Visão geral das características do XGBoost

  • Elementos de um algoritmo Gradient Boosting
  • Foco na velocidade de computação e no desempenho do modelo
  • XGBoost vs Regressão Logística, Random Forest, e Gradient Boosting padrão

A evolução dos algoritmos baseados em árvores

  • Árvores de decisão, Bagging, Random Forest, Boosting, Gradient Boosting
  • Otimização do sistema
  • Melhorias algorítmicas

Preparar o ambiente

  • Instalação de SciPy e scikit-learn

Criar um modelo XGBoost

  • Descarregar um conjunto de dados
  • Resolvendo um problema comum de classificação
  • Treinar o modelo XGBoost para classificação
  • Resolver uma tarefa de regressão comum

Monitorização do desempenho

  • Avaliação e comunicação do desempenho
  • Paragem precoce

Traçar características por importância

  • Cálculo da importância das características
  • Decidir que variáveis de entrada devem ser mantidas ou descartadas

Configuração do Gradient Boosting

  • Rever as curvas de aprendizagem nos conjuntos de dados de treino e validação
  • Ajustar a taxa de aprendizagem
  • Ajustar o número de árvores

Afinação de hiperparâmetros

  • Melhorar o desempenho de um modelo XGBoost
  • Conceber uma experiência controlada para ajustar os hiperparâmetros
  • [Combinações de parâmetros

Criar um pipeline

  • Incorporação de um modelo XGBoost em um pipeline de aprendizado de máquina de ponta a ponta
  • Ajuste de hiperparâmetros dentro do pipeline
  • Técnicas avançadas de pré-processamento

Resolução de problemas

Resumo e conclusão

Requisitos

  • Experiência na redação de modelos de aprendizagem automática

Público

  • Cientistas de dados
  • Engenheiros de aprendizagem automática
 14 horas

Número de participantes



Preço por participante

Categorias Relacionadas