Programa do Curso

Introdução à Inferência de IA com Docker

  • Compreendendo workloads de inferência de IA
  • Benefícios da inferência contêinerizada
  • Cenários e restrições de implantação

Construindo Contêineres de Inferência de IA

  • Selecionando imagens base e frameworks
  • Empacotando modelos pré-treinados
  • Estruturando código de inferência para execução em contêineres

Segurança em Serviços de IA Contêinerizados

  • Minimizando a superfície de ataque dos contêineres
  • Gerenciando segredos e arquivos sensíveis
  • Estratégias seguras de rede e exposição de API

Técnicas de Implantação Portátil

  • Otimizando imagens para portabilidade
  • Garantindo ambientes de tempo de execução previsíveis
  • Gerenciando dependências entre plataformas

Implantação e Teste Local

  • Executando serviços localmente com Docker
  • Depurando contêineres de inferência
  • Testando desempenho e confiabilidade

Implantação em Servidores e VMs de Nuvem

  • Adaptando contêineres para ambientes remotos
  • Configurando acesso seguro ao servidor
  • Implantando APIs de inferência em VMs de nuvem

Usando Docker Compose para Sistemas de IA Multisserviço

  • Orquestrando inferência com componentes de suporte
  • Gerenciando variáveis de ambiente e configurações
  • Escalando microserviços com Compose

Monitoramento e Manutenção de Serviços de Inferência de IA

  • Abordagens de registro e observabilidade
  • Detectando falhas em pipelines de inferência
  • Atualizando e versão de modelos em produção

Resumo e Próximos Passos

Requisitos

  • Compreensão dos conceitos básicos de aprendizado de máquina
  • Experiência com Python ou desenvolvimento backend
  • Familiaridade com conceitos fundamentais de contêineres

Público-Alvo

  • Desenvolvedores
  • Engenheiros backend
  • Equipes implantando serviços de IA
 14 Horas

Número de participantes


Preço por Participante

Declaração de Clientes (5)

Próximas Formações Provisórias

Categorias Relacionadas