Curso de Aperfeiçoamento de Modelos Multimodais
Fine-Tuning Multimodal Models centra-se em técnicas avançadas de adaptação de modelos que processam vários tipos de dados, como texto, imagens e vídeos. Os participantes obterão informações sobre como lidar com conjuntos de dados complexos, otimizar o desempenho do modelo e implementar estes modelos em aplicações do mundo real, como a resposta a perguntas visuais e a geração de conteúdos.
Este treinamento ao vivo conduzido por instrutor (no local ou remoto) é destinado a profissionais de nível avançado que desejam dominar o ajuste fino do modelo multimodal para soluções inovadoras de IA.
No final deste treinamento, os participantes serão capazes de:
- Compreender a arquitetura de modelos multimodais como CLIP e Flamingo.
- Prepare e pré-processe conjuntos de dados multimodais de forma eficaz.
- Ajuste fino de modelos multimodais para tarefas específicas.
- Otimizar modelos para aplicações e desempenho no mundo real.
Formato do curso
- Palestra e discussão interactiva.
- Muitos exercícios e prática.
- Implementação prática num ambiente de laboratório ao vivo.
Opções de personalização do curso
- Para solicitar uma formação personalizada para este curso, por favor contacte-nos para combinar.
Programa do Curso
Introdução aos modelos multimodais
- Visão geral da aprendizagem automática multimodal
- Aplicações de modelos multimodais
- Desafios no tratamento de vários tipos de dados
Arquitecturas para modelos multimodais
- Exploração de modelos como CLIP, Flamingo e BLIP
- Compreender os mecanismos de atenção multimodal
- Considerações de arquitetura para escalabilidade e eficiência
Preparação de conjuntos de dados multimodais
- Técnicas de recolha e anotação de dados
- Pré-processamento de texto, imagens e entradas de vídeo
- Equilíbrio de conjuntos de dados para tarefas multimodais
Técnicas de afinação para modelos multimodais
- Criação de pipelines de formação para modelos multimodais
- Gerir a memória e as restrições computacionais
- Tratamento do alinhamento entre modalidades
Aplicações de modelos multimodais aperfeiçoados
- Resposta a perguntas visuais
- Legendagem de imagens e vídeos
- Geração de conteúdos utilizando entradas multimodais
Otimização e avaliação do desempenho
- Métricas de avaliação para tarefas multimodais
- Otimização da latência e do débito para produção
- Garantia de robustez e consistência entre modalidades
Implementação de modelos multimodais
- Empacotamento de modelos para implantação
- Inferência Scalable em plataformas de nuvem
- Aplicações e integrações em tempo real
Estudos de casos e laboratórios práticos
- Afinação do CLIP para recuperação de imagens com base no conteúdo
- Treinar um chatbot multimodal com texto e vídeo
- Implementação de sistemas de recuperação multimodais
Resumo e próximos passos
Requisitos
- Proficiência em programação Python
- Compreensão dos conceitos de aprendizagem profunda
- Experiência com modelos pré-treinados de ajuste fino
Público-alvo
- Investigadores de IA
- Cientistas de dados
- Profissionais de aprendizagem automática
Os cursos de treinamento abertos exigem mais de 5 participantes.
Curso de Aperfeiçoamento de Modelos Multimodais - Booking
Curso de Aperfeiçoamento de Modelos Multimodais - Enquiry
Aperfeiçoamento de Modelos Multimodais - Solicitação de Consultoria
Solicitação de Consultoria
Próximas Formações Provisórias
Cursos Relacionados
Técnicas Avançadas em Aprendizagem Transferida
14 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a profissionais de aprendizado de máquina de nível avançado que desejam dominar técnicas de aprendizado de transferência de ponta e aplicá-las a problemas complexos do mundo real.
Ao final deste treinamento, os participantes serão capazes de:
- Compreender conceitos e metodologias avançadas na aprendizagem por transferência.
- Implementar técnicas de adaptação específicas do domínio para modelos pré-treinados.
- Aplicar a aprendizagem contínua para gerenciar tarefas e conjuntos de dados em evolução.
- Dominar o ajuste fino de várias tarefas para melhorar o desempenho do modelo em todas as tarefas.
Implantando Modelos Afinados em Produção
21 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a profissionais de nível avançado que desejam implantar modelos ajustados de forma confiável e eficiente.
Ao final deste treinamento, os participantes serão capazes de:
- Compreender os desafios da implantação de modelos ajustados em produção.
- Containerizar e implantar modelos usando ferramentas como Docker e Kubernetes.
- Implementar monitoramento e registro para modelos implantados.
- Otimizar modelos para latência e escalabilidade em cenários do mundo real.
Afinamento Específico para Finanças
21 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a profissionais de nível intermediário que desejam obter habilidades práticas na personalização de modelos de IA para tarefas financeiras críticas.
Ao final deste treinamento, os participantes serão capazes de:
- Entenda os fundamentos do ajuste fino para aplicativos financeiros.
- Aproveite os modelos pré-treinados para tarefas específicas de domínio em finanças.
- Aplicar técnicas para deteção de fraude, avaliação de risco e geração de aconselhamento financeiro.
- Garantir a conformidade com regulamentos financeiros como GDPR e SOX.
- Implementar a segurança dos dados e práticas éticas de IA em aplicações financeiras.
Aperfeiçoamento de Modelos e Grandes Modelos de Linguagem (LLMs)
14 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a profissionais de nível intermediário a avançado que desejam personalizar modelos pré-treinados para tarefas e conjuntos de dados específicos.
Ao final deste treinamento, os participantes serão capazes de:
- Compreender os princípios do ajuste fino e suas aplicações.
- Preparar conjuntos de dados para o ajuste fino de modelos pré-treinados.
- Ajuste fino de grandes modelos de linguagem (LLMs) para tarefas de PNL.
- Otimizar o desempenho do modelo e abordar desafios comuns.
Fine-Tuning Eficiente com Adaptação de Baixa Taxa (LoRA)
14 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a desenvolvedores de nível intermediário e profissionais de IA que desejam implementar estratégias de ajuste fino para grandes modelos sem a necessidade de recursos computacionais extensos.
No final deste treinamento, os participantes serão capazes de:
- Compreender os princípios da adaptação de baixo ranqueamento (LoRA).
- Implementar LoRA para um ajuste fino eficiente de modelos grandes.
- Otimizar o ajuste fino para ambientes com recursos limitados.
- Avaliar e implementar modelos ajustados por LoRA para aplicações práticas.
Afinamento para Processamento de Linguagem Natural (PLN)
21 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a profissionais de nível intermediário que desejam aprimorar seus projetos de PNL por meio do ajuste fino eficaz de modelos de linguagem pré-treinados.
No final deste treinamento, os participantes serão capazes de:
- Compreender os fundamentos do ajuste fino para tarefas de PNL.
- Ajustar modelos pré-treinados, como GPT, BERT e T5, para aplicações específicas de PNL.
- Otimizar os hiperparâmetros para melhorar o desempenho do modelo.
- Avaliar e implementar modelos ajustados em cenários do mundo real.
Aperfeiçoamento de Modelos DeepSeek LLM para Aplicações AI Personalizadas
21 HorasEste treinamento ao vivo e presidido por um instrutor (online ou no local) é direcionado a pesquisadores avançados de IA, engenheiros de aprendizado de máquina e desenvolvedores que desejam ajustar modelos DeepSeek LLM para criar aplicações de IA especializadas, adaptadas às necessidades específicas de indústrias, domínios ou negócios.
Ao final deste treinamento, os participantes serão capazes de:
- Compreender a arquitetura e as capacidades dos modelos DeepSeek, incluindo DeepSeek-R1 e DeepSeek-V3.
- Preparar conjuntos de dados e pré-processar dados para ajuste fino.
- Ajustar modelos DeepSeek LLM para aplicações específicas de domínio.
- Otimizar e implantar eficientemente os modelos ajustados.
Fine-Tuning Grandes Modelos de Linguagem Usando QLoRA
14 HorasEsta formação ao vivo, ministrada por um instrutor em Brasil (online ou presencial), é direcionada a engenheiros de aprendizado de máquina de nível intermediário a avançado, desenvolvedores de IA e cientistas de dados que desejam aprender como usar o QLoRA para ajustar eficientemente grandes modelos para tarefas específicas e personalizações.
No final desta formação, os participantes serão capazes de:
- Compreender a teoria por trás do QLoRA e das técnicas de quantização para LLMs (Large Language Models).
- Implementar o QLoRA no ajuste fino de grandes modelos linguísticos para aplicações específicas de domínio.
- Otimizar o desempenho do ajuste fino em recursos computacionais limitados usando quantização.
- Deploy e avaliar modelos ajustados finamente em aplicações do mundo real de forma eficiente.
Fine-Tuning Modelos de IA Abertos (LLaMA, Mistral, Qwen, etc.)
14 HorasEste treinamento ao vivo e ministrado por um instrutor em Brasil (online ou presencial) é direcionado a profissionais de nível intermediário em ML e desenvolvedores de IA que desejam ajustar e implantar modelos open-weight como LLaMA, Mistral e Qwen para aplicações específicas de negócios ou internas.
No final deste treinamento, os participantes serão capazes de:
- Compreender o ecossistema e as diferenças entre modelos de IA open-source.
- Preparar conjuntos de dados e configurações de ajuste fino para modelos como LLaMA, Mistral e Qwen.
- Executar pipelines de ajuste fino usando Hugging Face Transformers e PEFT.
- Avaliar, salvar e implantar modelos ajustados em ambientes seguros.
Fine-Tuning com Reinforcement Learning do Feedback Humano (RLHF)
14 HorasEsta formação ao vivo, ministrada por um instrutor em Brasil (online ou presencial), é direcionada a engenheiros de aprendizado de máquina avançados e pesquisadores de IA que desejam aplicar RLHF para ajustar modelos grandes de IA com melhor desempenho, segurança e alinhamento.
Ao final desta formação, os participantes serão capazes de:
- Compreender as bases teóricas do RLHF e por que é essencial no desenvolvimento moderno de IA.
- Implementar modelos de recompensa baseados em feedback humano para orientar processos de aprendizado por reforço.
- Ajustar modelos grandes de linguagem usando técnicas de RLHF para alinhar as saídas com as preferências humanas.
- Aplicar as melhores práticas para escalar fluxos de trabalho de RLHF para sistemas de IA de produção.
Otimizando Grandes Modelos para Afinamento com Custos Eficientes
21 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a profissionais de nível avançado que desejam dominar técnicas para otimizar grandes modelos para um ajuste fino e econômico em cenários do mundo real.
No final deste treinamento, os participantes serão capazes de:
- Compreender os desafios do ajuste fino de grandes modelos.
- Aplicar técnicas de treinamento distribuído a grandes modelos.
- Aproveite a quantização do modelo e a poda para obter eficiência.
- Otimizar a utilização de hardware para tarefas de ajuste fino.
- Implantar modelos de ajuste fino de forma eficaz em ambientes de produção.
Engenharia de Prompts e Afinamento com Exemplos Reduzidos
14 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a profissionais de nível intermediário que desejam aproveitar o poder da engenharia rápida e do aprendizado de poucos disparos para otimizar o desempenho do LLM para aplicativos do mundo real.
No final deste treinamento, os participantes serão capazes de:
- Compreender os princípios da engenharia de prompt e da aprendizagem de poucos disparos.
- Projetar prompts eficazes para várias tarefas de PNL.
- Aproveitar as técnicas de poucos disparos para adaptar LLMs com dados mínimos.
- Otimizar o desempenho do LLM para aplicações práticas.
Técnicas Paramétricas Eficientes Fine-Tuning (PEFT) para Modelos de Linguagem Grandes (LLMs)
14 HorasEste treinamento ao vivo, ministrado por um instrutor em Brasil (online ou presencial), é direcionado a cientistas de dados e engenheiros de IA de nível intermediário que desejam ajustar modelos de linguagem grandes de forma mais econômica e eficiente usando métodos como LoRA, Adapter Tuning e Prefix Tuning.
No final deste treinamento, os participantes serão capazes de:
- Compreender a teoria por trás das abordagens de ajuste fino com eficiência paramétrica.
- Implementar LoRA, Adapter Tuning e Prefix Tuning usando Hugging Face PEFT.
- Comparar as vantagens e desvantagens em termos de desempenho e custo dos métodos PEFT versus o ajuste fino completo.
- Implantar e escalar modelos de linguagem ajustados com requisitos reduzidos de computação e armazenamento.
Introdução ao Aprendizado Transferível
14 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a profissionais de aprendizado de máquina de nível iniciante a intermediário que desejam entender e aplicar técnicas de aprendizado de transferência para melhorar a eficiência e o desempenho em projetos de IA.
No final deste treinamento, os participantes serão capazes de:
- Compreender os principais conceitos e benefícios do aprendizado de transferência.
- Explore modelos pré-treinados populares e seus aplicativos.
- Realize o ajuste fino de modelos pré-treinados para tarefas personalizadas.
- Aplicar o aprendizado de transferência para resolver problemas do mundo real em PNL e visão computacional.
Solucionando Desafios de Afinamento Fino
14 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a profissionais de nível avançado que desejam refinar suas habilidades no diagnóstico e solução de desafios de ajuste fino para modelos de aprendizado de máquina.
No final deste treinamento, os participantes serão capazes de:
- Diagnosticar problemas como overfitting, underfitting e desequilíbrio de dados.
- Implementar estratégias para melhorar a convergência do modelo.
- Otimizar pipelines de ajuste fino para melhor desempenho.
- Depurar processos de treinamento usando ferramentas e técnicas práticas.