Obrigado por enviar sua consulta! Um dos membros da nossa equipe entrará em contato com você em breve.
Obrigado por enviar sua reserva! Um dos membros da nossa equipe entrará em contato com você em breve.
Programa do Curso
Introdução:
- Apache Spark em Hadoop Ecossistema
- Breve introdução para python, scala
Noções básicas (teoria):
- Arquitetura
- RDD
- Transformação e Ações
- Estágio, Tarefa, Dependências
Usando o ambiente Databricks, entenda o básico (workshop prático):
- Exercícios usando API RDD
- Funções básicas de ação e transformação
- ParRDD
- Juntar
- Estratégias de cache
- Exercícios usando API DataFrame
- FaíscaSQL
- DataFrame: selecionar, filtrar, agrupar, classificar
- UDF (função definida pelo usuário)
- Olhando para a API DataSet
- Transmissão
Usando o ambiente AWS, entenda a implantação (workshop prático):
- Noções básicas do AWS Glue
- Entenda as diferenças entre AWS EMR e AWS Glue
- Trabalhos de exemplo em ambos os ambientes
- Entenda prós e contras
Extra:
- Introdução à Apache Airflow orquestração
Requisitos
Conhecimentos de programação (de preferência python, scala)
SQL noções básicas
21 Horas
Declaração de Clientes (3)
Sessão prática / atividades
Poornima Chenthamarakshan - Intelligent Medical Objects
Curso - Apache Spark in the Cloud
Máquina Traduzida
1. Equilíbrio adequado entre conceitos de alto nível e detalhes técnicos. 2. András é muito conhecedor sobre seu ensino. 3. Exercício
Steven Wu - Intelligent Medical Objects
Curso - Apache Spark in the Cloud
Máquina Traduzida
Aprenda sobre Spark Streaming, Databricks e AWS Redshift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Curso - Apache Spark in the Cloud
Máquina Traduzida