Programa do Curso

Introdução

  • Visão geral das características e da arquitetura do Spark e do Hadoop
  • Compreender os grandes dados
  • Python Noções básicas de programação

Começar a trabalhar

  • Configurar o Python, o Spark e o Hadoop
  • Compreender as estruturas de dados em Python
  • Compreender a API do PySpark
  • Compreender o HDFS e o MapReduce

Integração do Spark e do Hadoop com Python

  • Implementação do Spark RDD em Python
  • Processamento de dados usando MapReduce
  • Criação de conjuntos de dados distribuídos no HDFS

Machine Learning com Spark MLlib

Processamento de grandes volumes de dados com Spark Streaming

Trabalhar com sistemas de recomendação

Trabalhar com Kafka, Sqoop, Kafka e Flume

Apache Mahout com Spark e Hadoop

Resolução de problemas

Resumo e próximas etapas

Requisitos

  • Experiência com Spark e Hadoop
  • Python experiência em programação

Público

  • Cientistas de dados
  • Desenvolvedores
 21 horas

Número de participantes



Preço por participante

Declaração de Clientes (3)

Cursos Relacionados

Categorias Relacionadas