Cursos de Dos Dados a Decisão com Big Data e Análises Preditivas
Público
Se você tentar entender os dados aos quais tem acesso ou quiser analisar dados não estruturados disponíveis na rede (como o Twitter, Linked in, etc ...), este curso é para você.
É principalmente destinado a tomadores de decisão e pessoas que precisam escolher quais dados valem a pena coletar e o que vale a pena analisar.
Não se destina a pessoas que configuram a solução, essas pessoas irão se beneficiar do quadro geral.
Modo de entrega
Durante o curso, os delegados serão apresentados a exemplos de trabalho, principalmente de tecnologias de código aberto.
Aulas curtas serão seguidas de apresentação e exercícios simples pelos participantes
Conteúdo e Software utilizados
Todo o software utilizado é atualizado cada vez que o curso é executado, por isso, verificamos as versões mais recentes possíveis.
Abrange o processo de obter, formatar, processar e analisar os dados, para explicar como automatizar o processo de tomada de decisão com o aprendizado de máquina.
Programa do Curso
Visão geral rápida
- Fontes de dados
- Cuidando dos Dados
- Sistemas de recomendação
- Alvo Marketing
Tipos de dados
- Estruturado vs não estruturado
- Estático vs transmitido
- Dados atitudinais, comportamentais e demográficos
- Análise baseada em dados versus análise baseada no usuário
- validade dos dados
- Volume, velocidade e variedade de dados
Modelos
- Construindo modelos
- Modelos Estatísticos
- Aprendizado de máquina
Classificação de dados
- Agrupamento
- kGroups, k-means, os vizinhos mais próximos
- Colônias de formigas, pássaros reunidos
Modelos Preditivos
- Árvores de decisão
- Máquina de vetores de suporte
- Classificação ingênua de Bayes
- Redes neurais
- Modelo de Markov
- Regressão
- Métodos de conjunto
ROI
- Relação benefício/custo
- Custo do software
- Custo de desenvolvimento
- Benefícios potenciais
Construindo Modelos
- Preparação de dados (MapReduce)
- Limpeza de dados
- Escolhendo métodos
- Modelo em desenvolvimento
- Modelo de teste
- Avaliação do modelo
- Implantação e integração de modelo
Visão geral de código aberto e software comercial
- Seleção do pacote de projeto R
- Python bibliotecas
- Hadoop e Mahout
- Projetos Apache selecionados relacionados a Big Data e Analytics
- Solução comercial selecionada
- Integração com software e fontes de dados existentes
Requisitos
Compreensão dos métodos tradicionais de gestão e análise de dados como SQL, armazéns de dados, business intelligence, OLAP, etc... Conhecimentos básicos de estatística e probabilidade (média, variância, probabilidade, probabilidade condicional, etc.)
Open Training Courses require 5+ participants.
Cursos de Dos Dados a Decisão com Big Data e Análises Preditivas - Booking
Cursos de Dos Dados a Decisão com Big Data e Análises Preditivas - Enquiry
Dos Dados a Decisão com Big Data e Análises Preditivas - Solicitação de Consultoria
Declaração de Clientes (2)
O conteúdo, porque o achei muito interessante e penso que me ajudaria no meu último ano na Universidade.
Krishan - NBrown Group
Curso - From Data to Decision with Big Data and Predictive Analytics
Machine Translated
Richard's training style kept it interesting, the real world examples used helped to drive the concepts home.
Jamie Martin-Royle - NBrown Group
Curso - From Data to Decision with Big Data and Predictive Analytics
Upcoming Courses
Cursos Relacionados
Predictive AI in DevOps: Enhancing Software Delivery
14 horasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a profissionais de nível intermediário DevOps que desejam integrar IA preditiva em suas práticas DevOps.
Ao final deste treinamento, os participantes serão capazes de:
- Implementar modelos de análise preditiva para prever e resolver desafios no pipeline DevOps.
- Utilize ferramentas orientadas por IA para monitoramento e operações aprimorados.
- Aplique técnicas de aprendizado de máquina para melhorar os fluxos de trabalho de entrega de software.
- Conceber estratégias de IA para resolução proactiva de problemas e otimização.
- Navegar pelas considerações éticas da utilização da IA em DevOps.
Introduction to Predictive AI
21 horasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a profissionais de TI de nível iniciante que desejam compreender os fundamentos da IA preditiva.
Ao final deste treinamento, os participantes serão capazes de:
- Compreender os conceitos centrais da IA preditiva e suas aplicações.
- Colete, limpe e pré-processe dados para análise preditiva.
- Explore e visualize dados para descobrir insights.
- Construir modelos estatísticos básicos para fazer previsões.
- Avaliar o desempenho de modelos preditivos.
- Aplicar conceitos de IA preditiva a cenários do mundo real.
Data Vault: Building a Scalable Data Warehouse
28 horasNeste treinamento ao vivo conduzido por instrutor em Brasil, os participantes aprenderão como construir um Data Vault.
No final desta formação, os participantes serão capazes de
- Compreender a arquitetura e os conceitos de design por trás do Data Vault 2.0 e sua interação com Big Data, NoSQL e IA.
- Utilizar técnicas de data vaulting para permitir a auditoria, rastreamento e inspeção de dados históricos em um data warehouse.
- Desenvolver um processo ETL (Extrair, Transformar, Carregar) consistente e repetível.
- Construir e implantar armazéns altamente escaláveis e repetíveis.
Spark Streaming with Python and Kafka
7 horasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a engenheiros de dados, cientistas de dados e programadores que desejam usar os recursos Spark Streaming no processamento e análise de dados em tempo real.
No final desta formação, os participantes serão capazes de utilizar Spark Streaming para processar fluxos de dados em tempo real para utilização em bases de dados, sistemas de ficheiros e painéis de controlo em tempo real.
Confluent KSQL
7 horasEste treinamento ao vivo conduzido por instrutor em Brasil (online ou no local) é destinado a desenvolvedores que desejam implementar o processamento de fluxo Apache Kafka sem escrever código.
No final desta formação, os participantes serão capazes de
- Instalar e configurar Confluent KSQL.
- Configurar um pipeline de processamento de fluxo usando apenas comandos SQL (sem codificação Java ou Python).
- Realizar filtragem de dados, transformações, agregações, junções, janelamento e sessionização inteiramente em SQL.
- Projetar e implantar consultas interativas e contínuas para ETL de streaming e análise em tempo real.
Apache Ignite for Developers
14 horasEsta formação ao vivo orientada por um instrutor em Brasil (online ou no local) destina-se a programadores que pretendam aprender os princípios subjacentes ao armazenamento persistente e puro na memória à medida que avançam na criação de um projeto de amostra de computação na memória.
No final desta formação, os participantes serão capazes de
-
Utilize o Ignite para persistência na memória e no disco, bem como uma base de dados na memória puramente distribuída.
Obter persistência sem sincronizar os dados com uma base de dados relacional.
Utilizar o Ignite para efetuar SQL e junções distribuídas.
Melhorar o desempenho deslocando os dados para mais perto da CPU, utilizando a RAM como armazenamento.
Espalhar conjuntos de dados por um cluster para obter escalabilidade horizontal.
Integrar o Ignite com RDBMS, NoSQL, Hadoop e processadores de aprendizagem automática.
Unified Batch and Stream Processing with Apache Beam
14 horasApache Beam é um modelo de programação unificado de código aberto para definir e executar pipelines de processamento de dados paralelos. Seu poder reside em sua capacidade de executar pipelines de lote e streaming, com a execução sendo executada por um dos back-ends de processamento distribuído suportados pela Beam: Apache Apex , Apache Flink , Apache Spark , Apache Spark e Go ogle Cloud Dataflow. Apache Beam é útil para tarefas ETL (Extrair, Transformar e Carregar), como mover dados entre diferentes mídias de armazenamento e fontes de dados, transformar dados em um formato mais desejável e carregar dados em um novo sistema.
Neste treinamento ao vivo, conduzido por instrutor (no local ou remoto), os participantes aprenderão como implementar os SDKs do Apache Beam em um aplicativo Java ou Python que define um pipeline de processamento de dados para decompor um conjunto de grandes dados em blocos menores para processamento independente e paralelo .
Ao final deste treinamento, os participantes serão capazes de:
- Instale e configure o Apache Beam .
- Use um único modelo de programação para executar o processamento em lote e fluxo a partir do aplicativo Java ou Python .
- Execute pipelines em vários ambientes.
Formato do Curso
- Parte palestra, parte discussão, exercícios e prática prática pesada
Nota
- Este curso estará disponível no Scala no futuro. Entre em contato conosco para agendar.
Apache Apex: Processing Big Data-in-Motion
21 horasApache Storm
28 horasApache Storm é um motor de computação em tempo real distribuído usado para permitir a inteligência de negócios em tempo real. Ele faz isso, permitindo que as aplicações processem de forma confiável fluxos de dados ilimitados (por exemplo. Processamento de fluxo).
"Storm é para processamento em tempo real o que Hadoop é para processamento de batch!"
Neste treinamento ao vivo liderado por instrutores, os participantes aprenderão como instalar e configurar Apache Storm, depois desenvolver e implantar uma Apache Storm aplicação para processar grandes dados em tempo real.
Alguns dos tópicos incluídos nesta formação incluem:
- Apache Storm no contexto de Hadoop
- Trabalhar com dados ilimitados
- Computação contínua
- Análise em Tempo Real
- Processamento distribuído RPC e ETL
Solicite este curso agora!
Auditoria
- Desenvolvedores de software e ETL
- Profissionais de Mainframe
- Cientistas de Dados
- Analistas de Big Data
- Hadoop Profissionais
Formato do curso
- palestras em parte, discussões em parte, exercícios e práticas pesadas
Apache NiFi for Administrators
21 horasNesta formação ao vivo orientada por um instrutor em Brasil (no local ou remoto), os participantes aprenderão a implementar e gerir Apache NiFi num ambiente de laboratório ao vivo.
No final desta formação, os participantes serão capazes de
- Instalar e configurar o Apachi NiFi.
- Fonte, transforme e gerencie dados de fontes de dados díspares e distribuídas, incluindo bancos de dados e grandes lagos de dados.
- Automatizar fluxos de dados.
- Habilitar a análise de streaming.
- Aplicar várias abordagens para a ingestão de dados.
- Transformar Big Data e em insights de negócios.
Apache NiFi for Developers
7 horasNeste treinamento ao vivo conduzido por instrutor em Brasil, os participantes aprenderão os fundamentos da programação baseada em fluxo à medida que desenvolvem uma série de extensões de demonstração, componentes e processadores usando Apache NiFi.
No final desta formação, os participantes serão capazes de
- Compreender a arquitetura do NiFi's e conceitos de dataflow.
- Desenvolver extensões usando NiFi e APIs de terceiros.
- Desenvolver seu próprio processador Apache Nifi.
- Ingestão e processamento de dados em tempo real de formatos de arquivos e fontes de dados díspares e incomuns.
Apache Flink Fundamentals
28 horasEste treinamento ao vivo conduzido por instrutor em Brasil (online ou no local) apresenta os princípios e abordagens por trás do fluxo distribuído e processamento de dados em lote, e orienta os participantes através da criação de um aplicativo de fluxo de dados em tempo real em Apache Flink.
No final desta formação, os participantes serão capazes de
-
Configurar um ambiente para desenvolver aplicações de análise de dados.
Entender como funciona a biblioteca de processamento de gráficos do Apache Flink (Gelly).
Empacotar, executar e monitorar aplicativos de streaming de dados baseados no Flink, tolerantes a falhas.
Gerenciar diversas cargas de trabalho.
Realizar análises avançadas.
Configurar um cluster Flink de vários nós.
Medir e otimizar o desempenho.
Integrar o Flink com diferentes sistemas Big Data.
Comparar os recursos do Flink com os de outros frameworks de processamento de big data.
Python e Spark para Big Data (PySpark)
21 horasNeste treinamento ao vivo conduzido por instrutor em Brasil, os participantes aprenderão como usar Python e Spark juntos para analisar big data enquanto trabalham em exercícios práticos.
No final desta formação, os participantes serão capazes de
- Aprenda a usar o Spark com Python para analisar Big Data.
- Trabalhar em exercícios que imitam casos do mundo real.
- Utilizar diferentes ferramentas e técnicas para análise de big data usando PySpark.
Introduction to Graph Computing
28 horasNeste treinamento ao vivo conduzido por instrutor em Brasil, os participantes aprenderão sobre as ofertas de tecnologia e abordagens de implementação para o processamento de dados gráficos. O objetivo é identificar objetos do mundo real, suas características e relacionamentos, depois modelar esses relacionamentos e processá-los como dados usando uma abordagem Graph Computing (também conhecida como Graph Analytics). Começaremos com uma visão geral e concentrar-nos-emos em ferramentas específicas à medida que avançamos numa série de estudos de casos, exercícios práticos e implementações em direto.
No final desta formação, os participantes serão capazes de
- Compreender como os dados de grafos são persistidos e percorridos.
- Selecionar o melhor framework para uma determinada tarefa (de bancos de dados de grafos a frameworks de processamento em lote.)
- Implementar Hadoop, Spark, GraphX e Pregel para realizar computação de grafos em muitas máquinas em paralelo.
- Ver problemas de big data do mundo real em termos de grafos, processos e travessias.