Curso de Processamento de fluxo com fluxos do Kafka
O Kafka Streams é uma biblioteca do lado do cliente para criar aplicativos e microsserviços cujos dados são transmitidos para e de um sistema de mensagens Kafka. Tradicionalmente, o Apache Kafka conta com o Apache Spark ou o Apache Storm para processar dados entre produtores e consumidores de mensagens. Ao chamar a API Kafka Streams de dentro de um aplicativo, os dados podem ser processados diretamente no Kafka, ignorando a necessidade de enviar os dados para um cluster separado para processamento.
Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão a integrar o Kafka Streams em um conjunto de aplicativos Java de amostra que transmitem dados para e do Apache Kafka para processamento de fluxo.
No final deste treinamento, os participantes serão capazes de:
- Compreender as características e vantagens do Kafka Streams em relação a outros frameworks de processamento de fluxos
- Processar dados de fluxo diretamente dentro de um cluster Kafka
- Escriver um aplicativo ou microsserviço Java ou Scala que se integra com Kafka e Kafka Streams
- Escriver código conciso que transforma tópicos de entrada do Kafka em tópicos de saída do Kafka
- Criar, empacotar e implantar o aplicativo
Público
- Desenvolvedores
Formato do curso
- Parte palestra, parte discussão, exercícios e prática intensiva
Notas
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar
Programa do Curso
Introdução
- Kafka vs Spark, Flink e Storm
Visão geral dos recursos do Kafka Streams
- Processamento stateful e stateless, processamento baseado em horário de eventos, DSL, operações de janelas baseadas em horário de eventos, etc.
Estudo de caso: API Kafka Streams para orçamento preditivo
Configurando o Ambiente de Desenvolvimento
Criando um aplicativo Streams
Iniciando o Cluster Kafka
Preparando os Tópicos e Dados de Entrada
Opções para processamento de dados de fluxo
- Kafka Streams DSL de alto nível
- Processador de baixo nível
Transformando os dados de entrada
Inspecionando os dados de saída
Parando o Cluster Kafka
Opções para implantar o aplicativo
- Ferramentas clássicas de operações (Puppet, Chef e Salt)
- Docker
- Arquivo WAR
Solução de problemas
Resumo e conclusão
Requisitos
- Um entendimento de Apache Kafka
- Experiência em programação de Java
Os cursos de treinamento abertos exigem mais de 5 participantes.
Curso de Processamento de fluxo com fluxos do Kafka - Booking
Curso de Processamento de fluxo com fluxos do Kafka - Enquiry
Processamento de fluxo com fluxos do Kafka - Solicitação de Consultoria
Solicitação de Consultoria
Declaração de Clientes (1)
Relembrando/revisando pontos-chave dos tópicos discutidos.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Curso - Building Stream Processing Applications with Kafka Streams
Máquina Traduzida
Próximas Formações Provisórias
Cursos Relacionados
Administração do Confluent Apache Kafka
21 HorasO Confluent Apache Kafka é uma plataforma de streaming de eventos distribuída projetada para canais de dados com alta capacidade de processamento, tolerância a falhas e análise em tempo real.
Esta formação ao vivo (online ou presencial), orientada por instrutor, destina-se a administradores de sistemas intermediários e profissionais DevOps que desejam instalar, configurar, monitorar e solucionar problemas em clusters Confluent Apache Kafka.
No final desta formação, os participantes serão capazes de:
- Compreender os componentes e a arquitetura do Confluent Kafka.
- Deploy e gerenciar Kafka brokers, quorums Zookeeper e serviços-chave.
- Configurar recursos avançados, incluindo segurança, replicação e ajuste de desempenho.
- Usar ferramentas de gerenciamento para monitorar e manter clusters Kafka.
Formato do Curso
- Aula interativa e discussão.
- Muitos exercícios e práticas.
- Implementação prática em um ambiente de laboratório ao vivo.
Opções de Personalização do Curso
- Para solicitar uma formação personalizada para este curso, entre em contato conosco para agendar.
Unificação Batch e Stream Processing com Apache Beam
14 HorasApache Beam é um modelo de programação unificado e de código aberto para definir e executar pipelines de processamento de dados paralelos. O seu poder reside na sua capacidade de executar pipelines em lote e em fluxo contínuo, sendo a execução efectuada por um dos back-ends de processamento distribuído suportados pelo Beam: Apache Apex, Apache Flink, Apache Spark e Google Cloud Dataflow. A solução Apache Beam é útil para tarefas de ETL (Extrair, Transformar e Carregar), como mover dados entre diferentes mídias de armazenamento e fontes de dados, transformar dados em um formato mais desejável e carregar dados em um novo sistema.
Neste treinamento ao vivo conduzido por instrutor (no local ou remoto), os participantes aprenderão como implementar os SDKs Apache Beam em um aplicativo Java ou Python que define um pipeline de processamento de dados para decompor um grande conjunto de dados em pedaços menores para processamento paralelo e independente.
Ao final deste treinamento, os participantes serão capazes de:
- Instalar e configurar Apache Beam.
- Utilizar um único modelo de programação para efetuar o processamento em lote e em fluxo a partir da sua aplicação Java ou Python.
- Executar pipelines em vários ambientes.
Formato do curso
- Parte palestra, parte discussão, exercícios e muita prática
Nota
- Este curso estará disponível Scala no futuro. Por favor, contacte-nos para organizar.
Confluent Apache Kafka: Operações e Configuração do Cluster
16 HorasConfluent Apache Kafka é uma plataforma de streaming de eventos distribuída e de nível corporativo construída sobre Apache Kafka. Ela suporta pipelines de dados com alta taxa de transferência, tolerância a falhas e aplicações de streaming em tempo real.
Este treinamento orientado por instrutor (online ou presencial) destina-se a engenheiros e administradores intermediários que desejam implantar, configurar e otimizar clusters Confluent Kafka em ambientes de produção.
No final deste treinamento, os participantes serão capazes de:
- Instalar, configurar e operar clusters Confluent Kafka com múltiplos brokers.
- Diseñar configurações de alta disponibilidade usando Zookeeper e técnicas de replicação.
- Ajustar desempenho, monitorizar métricas e aplicar estratégias de recuperação.
- Segurança, escalar e integrar Kafka com ambientes corporativos.
Formato do Curso
- Aula interativa e discussão.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.
Opções de Personalização do Curso
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
Criar soluções Kafka com Confluent
14 Horaseste instrutor liderada, treinamento ao vivo (no local ou remoto) destina-se a engenheiros que desejam usar confluent (uma distribuição de Kafka) para construir e gerenciar uma plataforma de processamento de dados em tempo real para suas aplicações.
no final deste treinamento, os participantes poderão:
- Instalar e configurar o Confluent Platform.
- Utilizar as ferramentas e serviços de gerenciamento do Confluent para executar o Kafka de forma mais fácil.
- Armazenar e processar dados de fluxo de entrada.
- Otimizar e gerenciar clusters do Kafka.
- Proteger fluxos de dados.
formato do curso
- Aula interativa e discussão.
- Muitos exercícios e prática.
- Implementação hands-on em um ambiente de laboratório ao vivo.
Opções de personalização do curso
- Este curso é baseado na versão open source do Confluent: Confluent Open Source.
- Para solicitar um treinamento personalizado para este curso, por favor entre em contato conosco para agendar.
Criar pipelines de dados com Apache Kafka
7 HorasApache Kafka é uma plataforma de streaming distribuída. É, de fato, um padrão para a construção de pipelines de dados e resolve muitos casos de uso diferentes em torno do processamento de dados: ele pode ser usado como uma fila de mensagens, um log distribuído, um processador de fluxo etc.
Vamos começar com alguma teoria por trás dos pipelines de dados em geral, depois continuar com conceitos fundamentais por trás de Kafka. Também descobriremos componentes importantes como o Kafka Streams e o Kafka Connect.
Fundamentos do Apache Flink
28 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) apresenta os princípios e abordagens por trás do fluxo distribuído e do processamento de dados em lote, e orienta os participantes na criação de um aplicativo de streaming de dados em tempo real em Apache Flink.
No final deste treinamento, os participantes serão capazes de:
- Configurar um ambiente para o desenvolvimento de aplicativos de análise de dados.
- Entender como funciona a biblioteca de processamento de gráficos do Apache Flink (Gelly).
- Empacotar, executar e monitorar aplicativos de streaming de dados baseados em Flink, tolerantes a falhas.
- Gerenciar diversas cargas de trabalho.
- Realizar análises avançadas.
- Configurar um cluster Flink de vários nós.
- Medir e otimizar o desempenho.
- Integrar o Flink com diferentes sistemas Big Data.
- Comparar os recursos do Flink com os de outros frameworks de processamento de big data.
Uma Introdução Prática ao Processamento de Dados em Fluxo
21 HorasNeste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto), os participantes aprenderão como configurar e integrar diferentes estruturas Stream Processing com sistemas de armazenamento de big data existentes e aplicativos de software relacionados e microsserviços.
No final desta formação, os participantes serão capazes de
- Instalar e configurar diferentes Stream Processing frameworks, como Spark Streaming e Kafka Streaming.
- Compreender e selecionar a estrutura mais apropriada para o trabalho.
- Processar dados de forma contínua, simultânea e de forma registo a registo.
- Integrar Stream Processing soluções com bancos de dados existentes, data warehouses, data lakes, etc.
- Integrar a biblioteca de processamento de fluxo mais adequada com aplicativos corporativos e microsserviços.
Mensagens Distribuídas com Apache Kafka
14 HorasEste curso destina-se a arquitetos, desenvolvedores, administradores de sistemas e qualquer pessoa que queira entender e usar um sistema de mensagens distribuídas de alto rendimento. Se você tiver requisitos mais específicos (por exemplo, apenas lado da administração do sistema), este curso pode ser adaptado para atender melhor às suas necessidades.
Apache Kafka para Programadores Python
7 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a engenheiros de dados, cientistas de dados e programadores que desejam usar os recursos Apache Kafka no fluxo de dados com Python.
No final deste treinamento, os participantes poderão usar Apache Kafka para monitorar e gerenciar condições em fluxos de dados contínuos usando a programação Python.
Confluent KSQL
7 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a desenvolvedores que desejam implementar o processamento de fluxo Apache Kafka sem escrever código.
No final deste treinamento, os participantes serão capazes de:
- Instalar e configurar o Confluent KSQL.
- Configurar um pipeline de processamento de fluxo usando apenas comandos SQL (sem codificação Java ou Python).
- Realizar filtragem de dados, transformações, agregações, junções, janelamento e sessionização inteiramente em SQL.
- Conceber e implementar consultas interactivas e contínuas para ETL de fluxo contínuo e análise em tempo real.
Apache NiFi para Administradores
21 HorasNeste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto), os participantes aprenderão como implantar e gerenciar Apache NiFi em um ambiente de laboratório ao vivo.
No final deste treinamento, os participantes serão capazes de:
- Instalar e configurar o Apachi NiFi.
- Fonte, transformar e gerenciar dados de fontes de dados díspares e distribuídas, incluindo bancos de dados e grandes lagos de dados.
- Automatizar fluxos de dados.
- Habilitar a análise de streaming.
- Aplicar várias abordagens para a ingestão de dados.
- Transformar Big Data em informações comerciais.
Apache NiFi para Desenvolvedores
7 HorasNeste treinamento ao vivo conduzido por instrutor em Brasil, os participantes aprenderão os fundamentos da programação baseada em fluxo à medida que desenvolvem uma série de extensões de demonstração, componentes e processadores usando Apache NiFi.
No final deste treinamento, os participantes serão capazes de:
- Compreender a arquitetura do NiFi e os conceitos de fluxo de dados.
- Desenvolver extensões usando NiFi e APIs de terceiros.
- Desenvolver seu próprio processador Apache Nifi.
- Ingerir e processar dados em tempo real de formatos de arquivos e fontes de dados diferentes e incomuns.
Spark Streaming com Python e Kafka
7 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a engenheiros de dados, cientistas de dados e programadores que desejam usar os recursos Spark Streaming no processamento e análise de dados em tempo real.
No final deste treinamento, os participantes poderão usar Spark Streaming para processar fluxos de dados ao vivo para uso em bancos de dados, sistemas de arquivos e painéis ao vivo.