Curso de Uma Introdução Prática ao Processamento de Streams
O Processamento de Fluxo refere-se ao processamento em tempo real de "dados em movimento", ou seja, realizando computações sobre os dados à medida que são recebidos. Tais dados são lidos como fluxos contínuos de fontes de dados, como eventos de sensores, atividade do usuário em sites, negociações financeiras, transações com cartões de crédito, fluxos de cliques, etc. Os frameworks de Processamento de Fluxo são capazes de ler grandes volumes de dados de entrada e fornecer insights valiosos quase instantaneamente.
Neste treinamento orientado por instrutor (presencial ou remoto), os participantes aprenderão a configurar e integrar diferentes frameworks de Processamento de Fluxo com sistemas de armazenamento de big data existentes e aplicativos e microserviços relacionados.
Ao final deste treinamento, os participantes serão capazes de:
- Instalar e configurar diferentes frameworks de Processamento de Fluxo, como Spark Streaming e Kafka Streaming.
- Compreender e selecionar o framework mais apropriado para a tarefa.
- Processar dados continuamente, simultaneamente e de forma registro a registro.
- Integrar soluções de Processamento de Fluxo com bancos de dados existentes, data warehouses, lagos de dados, etc.
- Integrar a biblioteca de processamento de fluxo mais apropriada com aplicativos empresariais e microserviços.
Público
- Desenvolvedores
- Arquitetos de software
Formato do Curso
- Parte palestra, parte discussão, exercícios e prática intensiva
Notas
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
Programa do Curso
Introdução
- Processamento de fluxo vs processamento em lote
- Processamento de fluxo focado em analytics
Visão Geral de Frameworks e Linguagens de Programação
- Spark Streaming (Scala)
- Kafka Streaming (Java)
- Flink
- Storm
- Comparação das Características e Forças de Cada Framework
Visão Geral de Fontes de Dados
- Dados ao vivo como uma série de eventos ao longo do tempo
- Fontes de dados históricos
Opções de Implantação
- Nas nuvens (AWS, etc.)
- No local (nuvem privada, etc.)
Começando
- Configurando o Ambiente de Desenvolvimento
- Instalando e Configurando
- Avaliando as Necessidades de Análise de Dados
Operando um Framework de Processamento de Fluxo
- Integrando o Framework de Processamento de Fluxo com Ferramentas Big Data
- Processamento de Fluxo de Eventos (ESP) vs Processamento de Eventos Complexos (CEP)
- Transformando os Dados de Entrada
- Inspecionando os Dados de Saída
- Integrando o Framework de Processamento de Fluxo com Aplicações e Microserviços Existentes
Solução de Problemas
Resumo e Conclusão
Requisitos
- Experiência em programação em qualquer linguagem
- Compreensão dos conceitos de Big Data (Hadoop, etc.)
Os cursos de treinamento abertos exigem mais de 5 participantes.
Curso de Uma Introdução Prática ao Processamento de Streams - Reserva
Curso de Uma Introdução Prática ao Processamento de Streams - Consulta
Uma Introdução Prática ao Processamento de Streams - Solicitação de Consultoria
Solicitação de Consultoria
Declaração de Clientes (1)
Suficiente prática, o instrutor é qualificado
Chris Tan
Curso - A Practical Introduction to Stream Processing
Máquina Traduzida
Próximas Formações Provisórias
Cursos Relacionados
Apache Kafka Connect
7 HorasEste treinamento orientado por instrutor, ao vivo em Brasil (online ou no local), é destinado a desenvolvedores que desejam integrar o Apache Kafka com bancos de dados e aplicativos existentes para processamento, análise, etc.
Ao final deste treinamento, os participantes serão capazes de:
- Usar o Kafka Connect para ingerir grandes volumes de dados de um banco de dados em tópicos do Kafka.
- Ingerir dados de logs gerados por servidores de aplicativos em tópicos do Kafka.
- Tornar qualquer dado coletado disponível para processamento em fluxo.
- Exportar dados de tópicos do Kafka para sistemas secundários de armazenamento e análise.
Construindo Soluções Kafka com Confluent
14 HorasEste treinamento orientado por instrutor (online ou presencial) é direcionado a engenheiros que desejam usar o Confluent (uma distribuição do Kafka) para construir e gerenciar uma plataforma de processamento de dados em tempo real para seus aplicativos.
Ao final deste treinamento, os participantes serão capazes de:
- Instalar e configurar a Plataforma Confluent.
- Usar as ferramentas e serviços de gerenciamento do Confluent para executar o Kafka com mais facilidade.
- Armazenar e processar dados de fluxo entrante.
- Otimizar e gerenciar clusters do Kafka.
- Segurar fluxos de dados.
Formato do Curso
- Aula interativa e discussão.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.
Opções de Personalização do Curso
- Este curso é baseado na versão open source do Confluent: Confluent Open Source.
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
Construindo Pipelines de Dados com Apache Kafka
7 HorasO Apache Kafka é uma plataforma de streaming distribuída. É, de fato, um padrão para construir pipelines de dados e resolve muitos casos de uso diferentes em torno do processamento de dados: pode ser usado como uma fila de mensagens, log distribuído, processador de stream, etc.
Começaremos com algumas teorias por trás dos pipelines de dados em geral, continuando com os conceitos fundamentais por trás do Kafka. Também exploraremos componentes importantes como Kafka Streams e Kafka Connect.
Mensagens Distribuídas com Apache Kafka
14 HorasEste curso é para arquitetos empresariais, desenvolvedores, administradores de sistemas e qualquer pessoa que deseja entender e utilizar um sistema de mensagens distribuídas de alto desempenho. Se você tiver requisitos mais específicos (por exemplo, apenas o lado da administração do sistema), este curso pode ser adaptado para melhor atender às suas necessidades.
Kafka para Administradores
21 HorasEste treinamento presencial, conduzido por instrutores em Brasil (online ou no local), é destinado a sysadmins que desejam configurar, implantar, gerenciar e otimizar um cluster Kafka de nível empresarial.
No final deste treinamento, os participantes serão capazes de:
- Configurar e administrar um Cluster Kafka.
- Avaliar as vantagens e desvantagens de implantar o Kafka localmente ou na nuvem.
- Implantar e monitorar o Kafka usando várias ferramentas em ambientes locais e na nuvem.
Apache Kafka para Desenvolvedores
21 HorasEste treinamento liderado por instrutor (online ou presencial) é direcionado a desenvolvedores de nível intermediário que desejam desenvolver aplicativos de big data com Apache Kafka.
No final deste treinamento, os participantes serão capazes de:
- Desenvolver produtores e consumidores do Kafka para enviar e ler dados do Kafka.
- Integrar o Kafka a sistemas externos usando Kafka Connect.
- Escrever aplicativos de streaming com Kafka Streams & ksqlDB.
- Integrar uma aplicação cliente do Kafka com o Confluent Cloud para implantações baseadas em nuvem.
- Ganhar experiência prática através de exercícios práticos e casos de uso do mundo real.
Apache Kafka para Programadores Python
7 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a engenheiros de dados, cientistas de dados e programadores que desejam usar os recursos Apache Kafka no fluxo de dados com Python.
No final deste treinamento, os participantes poderão usar Apache Kafka para monitorar e gerenciar condições em fluxos de dados contínuos usando a programação Python.
Segurança para Apache Kafka
7 HorasEste treinamento presencial, ministrado por um instrutor em Brasil (online ou no local), é voltado para testadores de software que desejam implementar medidas de segurança de rede em uma aplicação do Apache Kafka.
Ao final deste treinamento, os participantes serão capazes de:
- Implantar o Apache Kafka em um servidor baseado em nuvem.
- Implementar criptografia SSL para prevenir ataques.
- Adicionar autenticação ACL para rastrear e controlar o acesso dos usuários.
- Garantir que clientes confiáveis tenham acesso a clusters do Kafka com autenticação SSL e SASL.
Apache Kafka e Spring Boot
7 HorasEste treinamento ministrado por instrutor (online ou presencial) em Brasil é voltado para desenvolvedores de nível intermediário que desejam aprender os fundamentos do Kafka e integrá-lo com o Spring Boot.
Ao final deste treinamento, os participantes serão capazes de:
- Compreender o Kafka e sua arquitetura.
- Aprender como instalar, configurar e configurar um ambiente básico do Kafka.
- Integrar o Kafka com o Spring Boot.
Stream Processing with Kafka Streams
7 HorasO Kafka Streams é uma biblioteca client-side para construir aplicações e microserviços cujos dados são transmitidos para e de um sistema de mensagens Kafka. Tradicionalmente, o Apache Kafka dependia do Apache Spark ou Apache Storm para processar dados entre os produtores e consumidores de mensagens. Ao chamar a API do Kafka Streams dentro de uma aplicação, os dados podem ser processados diretamente no Kafka, eliminando a necessidade de enviar os dados para um cluster separado para processamento.
Neste treinamento conduzido por instrutor e ao vivo, os participantes aprenderão como integrar o Kafka Streams em um conjunto de aplicações Java de exemplo que transmitem dados para e do Apache Kafka para processamento de fluxo.
Ao final deste treinamento, os participantes serão capazes de:
- Compreender as características e vantagens do Kafka Streams em comparação com outros frameworks de processamento de fluxos
- Processar dados de fluxo diretamente dentro de um cluster Kafka
- Escrever uma aplicação ou microserviço em Java ou Scala que se integra com o Kafka e Kafka Streams
- Escrever código conciso que transforma tópicos de entrada do Kafka em tópicos de saída do Kafka
- Construir, empacotar e implantar a aplicação
Público-alvo
- Desenvolvedores
Formato do curso
- Parte palestra, parte discussão, exercícios e prática intensiva
Notas
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar
Administration of Kafka Topic
14 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a administradores de sistema de nível iniciante a intermediário que desejam aprender como gerenciar efetivamente os tópicos do Kafka para streaming e processamento de dados eficientes.
No final deste treinamento, os participantes serão capazes de:
- Compreender os fundamentos e a arquitetura do tópico Kafka.
- Criar, configurar e gerenciar tópicos do Kafka.
- Monitorar tópicos do Kafka para saúde, desempenho e disponibilidade.
- Implementar medidas de segurança para tópicos do Kafka.
SMACK Stack para Ciência de Dados
14 HorasEste treinamento presencial, liderado pelo instrutor em Brasil (online ou no local), é voltado para cientistas de dados que desejam utilizar a pilha SMACK para construir plataformas de processamento de dados para soluções de big data.
Ao final deste treinamento, os participantes serão capazes de:
- Implementar uma arquitetura de pipeline de dados para processamento de big data.
- Desenvolver uma infraestrutura de cluster com Apache Mesos e Docker.
- Analisar dados com Spark e Scala.
- Gerenciar dados não estruturados com Apache Cassandra.
Python e Spark para Big Data (PySpark)
21 HorasNeste treinamento ao vivo conduzido por instrutor em Brasil, os participantes aprenderão como usar Python e Spark juntos para analisar big data enquanto trabalham em exercícios práticos.
Ao final deste treinamento, os participantes serão capazes de:
- Aprenda a usar o Spark com Python para analisar Big Data.
- Trabalhe em exercícios que imitam casos do mundo real.
- Use diferentes ferramentas e técnicas para análise de big data usando PySpark.
Microservices com Spring Cloud e Kafka
21 HorasEste treinamento ministrado por instrutor (online ou presencial) é destinado a desenvolvedores que desejam transformar uma arquitetura tradicional em uma arquitetura baseada em microserviços altamente concorrentes usando Spring Cloud, Kafka, Docker, Kubernetes e Redis.
Ao final deste treinamento, os participantes serão capazes de:
- Configurar o ambiente de desenvolvimento necessário para construir microserviços.
- Projetar e implementar um ecossistema de microserviços altamente concorrente usando Spring Cloud, Kafka, Redis, Docker e Kubernetes.
- Transformar serviços monolíticos e SOA em uma arquitetura baseada em microserviços.
- Adotar uma abordagem DevOps para desenvolvimento, teste e lançamento de software.
- Garantir alta concorrência entre microserviços na produção.
- Monitorar microserviços e implementar estratégias de recuperação.
- Realizar otimização de desempenho.
- Aprender sobre as tendências futuras em arquitetura de microserviços.
Stratio: Módulos Rocket e Intelligence com PySpark
14 HorasA Stratio é uma plataforma centrada em dados que integra big data, IA e governança em uma única solução. Seus módulos Rocket e Intelligence permitem a exploração rápida de dados, transformação e análises avançadas em ambientes empresariais.
Esta formação presencial (online ou no local), orientada por instrutor, é direcionada a profissionais de dados intermediários que desejam usar os módulos Rocket e Intelligence na Stratio efetivamente com PySpark, focando em estruturas de repetição, funções definidas pelo usuário e lógica de dados avançada.
Ao final deste treinamento, os participantes serão capazes de:
- Navegar e trabalhar dentro da plataforma Stratio usando os módulos Rocket e Intelligence.
- Aplicar PySpark no contexto de ingestão de dados, transformação e análise.
- Usar loops e lógica condicional para controlar fluxos de trabalho de dados e tarefas de engenharia de recursos.
- Criar e gerenciar funções definidas pelo usuário (UDFs) para operações reutilizáveis em PySpark.
Formato do Curso
- Aula interativa e discussão.
- Muitos exercícios e prática.
- Implementação hands-on em um ambiente de laboratório ao vivo.
Opções de Personalização do Curso
- Para solicitar uma formação personalizada para este curso, entre em contato conosco para agendar.