Programa do Curso

Introdução ao Cursor para Fluxos de Trabalho de Dados e ML

  • Visão geral do papel do Cursor na engenharia de dados e ML
  • Configurando o ambiente e conectando fontes de dados
  • Compreendendo a assistência de código alimentada por IA em notebooks

Acelerando o Desenvolvimento de Notebooks

  • Criando e gerenciando notebooks Jupyter dentro do Cursor
  • Usando IA para autocompletar código, explorar dados e visualizar informações
  • Documentando experimentos e mantendo reprodutibilidade

Construindo Pipelines de ETL e Engenharia de Características

  • Gerando e refatorando scripts de ETL com IA
  • Estruturando pipelines de características para escalabilidade
  • Controle de versão de componentes de pipeline e conjuntos de dados

Treinamento e Avaliação de Modelos com Cursor

  • Estruturando código de treinamento de modelos e loops de avaliação
  • Integrando pré-processamento de dados e ajuste de hiperparâmetros
  • Garantindo a reprodutibilidade do modelo em diferentes ambientes

Integrando o Cursor em Pipelines MLOps

  • Conectando o Cursor a registros de modelos e fluxos de trabalho CI/CD
  • Usando scripts assistidos por IA para treinamento automático e implantação
  • Monitorando o ciclo de vida do modelo e rastreamento de versões

Documentação e Relatórios Assistidos por IA

  • Gerando documentação inline para pipelines de dados
  • Criando resumos de experimentos e relatórios de progresso
  • Melhorando a colaboração da equipe com documentação contextualmente vinculada

Reprodutibilidade e Governança em Projetos de ML

  • Implementando melhores práticas para linhagem de dados e modelos
  • Mantendo governança e conformidade com código gerado por IA
  • Auditoria de decisões de IA e manutenção da rastreabilidade

Otimizando Produtividade e Aplicações Futuras

  • Aplicando estratégias de prompt para iterações mais rápidas
  • Explorando oportunidades de automação em operações de dados
  • Preparando-se para avanços futuros na integração do Cursor e ML

Resumo e Próximos Passos

Requisitos

  • Experiência com análise de dados ou aprendizado de máquina baseada em Python
  • Compreensão dos fluxos de trabalho de ETL e treinamento de modelos
  • Familiaridade com controle de versão e ferramentas de pipeline de dados

Público-Alvo

  • Cientistas de dados construindo e iterando em notebooks de ML
  • Engenheiros de aprendizado de máquina projetando pipelines de treinamento e inferência
  • Profissionais MLOps gerenciando a implantação e reprodutibilidade de modelos
 14 Horas

Número de participantes


Preço por Participante

Próximas Formações Provisórias

Categorias Relacionadas