Curso de Análise de Big Data na Saúde
A análise de big data envolve o processo de examinar grandes volumes de conjuntos de dados variados para descobrir correlações, padrões ocultos e outras insights úteis.
A indústria da saúde possui enormes quantidades de dados médicos e clínicos complexos e heterogêneos. Aplicar a análise de big data aos dados de saúde apresenta um grande potencial para derivar insights que melhorem a prestação de cuidados à saúde. No entanto, a magnitude desses conjuntos de dados representa grandes desafios em análises e aplicações práticas ao ambiente clínico.
Nesta formação conduzida por instrutor (remota), os participantes aprenderão como realizar análise de big data na saúde enquanto passam por uma série de exercícios práticos em laboratório.
Ao final desta formação, os participantes serão capazes de:
- Instalar e configurar ferramentas de análise de big data, como Hadoop MapReduce e Spark
- Compreender as características dos dados médicos
- Aplicar técnicas de big data para lidar com dados médicos
- Estudar sistemas e algoritmos de big data no contexto de aplicações em saúde
Público-alvo
- Desenvolvedores
- Cientistas de Dados
Formato do Curso
- Parte aula, parte discussão, exercícios e muita prática hands-on.
Nota
- Para solicitar uma formação personalizada para este curso, entre em contato conosco para agendar.
Programa do Curso
Introdução à Análise de Big Data na Saúde
Visão Geral das Tecnologias de Análise de Big Data
- Apache Hadoop MapReduce
- Apache Spark
Instalação e Configuração do Apache Hadoop MapReduce
Instalação e Configuração do Apache Spark
Usando Modelagem Preditiva para Dados de Saúde
Usando Apache Hadoop MapReduce para Dados de Saúde
Realizando Fenotipagem e Agrupamento em Dados de Saúde
- Métricas de Avaliação de Classificação
- Métodos Ensemble de Classificação
Usando Apache Spark para Dados de Saúde
Trabalhando com Ontologia Médica
Usando Análise de Grafos em Dados de Saúde
Redução de Dimensionalidade em Dados de Saúde
Trabalhando com Métricas de Similaridade de Pacientes
Solução de Problemas
Resumo e Conclusão
Requisitos
- Compreensão de conceitos de machine learning e mineração de dados
- Experiência avançada em programação (Python, Java, Scala)
- Dominância em processos de dados e ETL
Os cursos de treinamento abertos exigem mais de 5 participantes.
Curso de Análise de Big Data na Saúde - Reserva
Curso de Análise de Big Data na Saúde - Consulta
Análise de Big Data na Saúde - Solicitação de Consultoria
Solicitação de Consultoria
Declaração de Clientes (1)
A VM que eu gostei muito O Professor era muito conhecedor sobre o tópico bem como outros assuntos, ele foi muito simpático e amigável Gostei das instalações em Dubai.
Safar Alqahtani - Elm Information Security
Curso - Big Data Analytics in Health
Máquina Traduzida
Próximas Formações Provisórias
Cursos Relacionados
Treinamento de Administrador para Apache Hadoop
35 HorasPúblico-alvo:
O curso é destinado a especialistas em TI que procuram uma solução para armazenar e processar conjuntos grandes de dados em um ambiente de sistema distribuído.
Pré-requisitos:
Conhecimento profundo na administração de clusters Hadoop.
Análise de Grandes Dados com Google Colab e Apache Spark
14 HorasEste treinamento ao vivo, conduzido por instrutor em Brasil (online ou presencial), é direcionado a cientistas de dados e engenheiros intermediários que desejam usar Google Colab e Apache Spark para processamento e análise de big data.
Ao final deste treinamento, os participantes serão capazes de:
- Configurar um ambiente de big data usando Google Colab e Spark.
- Processar e analisar grandes conjuntos de dados eficientemente com Apache Spark.
- Visualizar big data em um ambiente colaborativo.
- Integrar Apache Spark com ferramentas baseadas na nuvem.
Administração Hadoop
21 HorasO curso é dedicado a especialistas em TI que estão procurando uma solução para armazenar e processar grandes conjuntos de dados em um ambiente de sistema distribuído
Objetivo do curso:
Adquirir conhecimento sobre administração de cluster Hadoop
Hadoop e Spark para Administradores
35 HorasEste treinamento liderado por instrutor (online ou presencial) é direcionado a administradores de sistemas que desejam aprender como configurar, implantar e gerenciar clusters Hadoop dentro de sua organização.
Ao final deste treinamento, os participantes serão capazes de:
- Instalar e configurar o Apache Hadoop.
- Compreender as quatro principais componentes do ecossistema Hadoop: HDFS, MapReduce, YARN e Hadoop Common.
- Usar o Hadoop Distributed File System (HDFS) para escalar um cluster para centenas ou milhares de nós.
- Configurar o HDFS para operar como mecanismo de armazenamento para implantações de Spark on-premise.
- Configurar o Spark para acessar soluções de armazenamento alternativas, como Amazon S3 e sistemas de banco de dados NoSQL, como Redis, Elasticsearch, Couchbase, Aerospike, etc.
- Realizar tarefas administrativas, como provisionamento, gerenciamento, monitoramento e segurança de um cluster Apache Hadoop.
Uma Introdução Prática ao Processamento de Streams
21 HorasNeste treinamento liderado por instrutor (no local ou remoto), os participantes aprenderão a configurar e integrar diferentes frameworks de Processamento de Fluxo com sistemas de armazenamento de big data existentes e aplicativos e microserviços relacionados.
Ao final deste treinamento, os participantes serão capazes de:
- Instalar e configurar diferentes frameworks de Processamento de Fluxo, como Spark Streaming e Kafka Streaming.
- Compreender e selecionar o framework mais apropriado para cada tarefa.
- Processar dados continuamente, simultaneamente e em um fluxo registro a registro.
- Integrar soluções de Processamento de Fluxo com bancos de dados existentes, data warehouses, data lakes, etc.
- Integrar a biblioteca de processamento de fluxo mais adequada com aplicativos empresariais e microserviços.
SMACK Stack para Ciência de Dados
14 HorasEste treinamento presencial, liderado pelo instrutor em Brasil (online ou no local), é voltado para cientistas de dados que desejam utilizar a pilha SMACK para construir plataformas de processamento de dados para soluções de big data.
Ao final deste treinamento, os participantes serão capazes de:
- Implementar uma arquitetura de pipeline de dados para processamento de big data.
- Desenvolver uma infraestrutura de cluster com Apache Mesos e Docker.
- Analisar dados com Spark e Scala.
- Gerenciar dados não estruturados com Apache Cassandra.
Fundamentos do Apache Spark
21 HorasEste treinamento conduzido por instrutor (online ou presencial) em Brasil é voltado para engenheiros que desejam configurar e implantar o sistema Apache Spark para processar grandes volumes de dados.
Ao final deste treinamento, os participantes serão capazes de:
- Instalar e configurar o Apache Spark.
- Ler rapidamente e analisar grandes conjuntos de dados.
- Entender a diferença entre Apache Spark e Hadoop MapReduce e quando usar cada um.
- Integrar o Apache Spark com outras ferramentas de aprendizado de máquina.
Administração do Apache Spark
35 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a administradores de sistema de nível iniciante a intermediário que desejam implantar, manter e otimizar clusters Spark.
Ao final deste treinamento, os participantes serão capazes de:
- Instalar e configurar Apache Spark em vários ambientes.
- Gerenciar recursos de cluster e monitorar aplicativos Spark.
- Otimizar o desempenho dos clusters do Spark.
- Implementar medidas de segurança e garantir alta disponibilidade.
- Depurar e solucionar problemas comuns do Spark.
Apache Spark na Nuvem
21 HorasA curva de aprendizagem do Apache Spark aumenta lentamente no início, exigindo muito esforço para obter o primeiro retorno. Este curso visa ultrapassar a primeira parte difícil. Após concluir este curso, os participantes compreenderão os fundamentos do Apache Spark, distinguirão claramente RDD de DataFrame, aprenderão as APIs Python e Scala, entenderão executores e tarefas, etc. Seguindo as melhores práticas, este curso se concentra fortemente na implantação em nuvem, Databricks e AWS. Os alunos também compreenderão as diferenças entre AWS EMR e AWS Glue, um dos últimos serviços de Spark da AWS.
PÚBLICO:
Data Engineer, DevOps, Data Scientist
Spark para Desenvolvedores
21 HorasOBJETIVO:
Este curso introduzirá o Apache Spark. Os alunos aprenderão como o Spark se encaixa no ecossistema de Big Data e como usá-lo para análise de dados. O curso abrange o shell do Spark para análise interativa de dados, as entranhas internas do Spark, as APIs do Spark, o Spark SQL, o Spark streaming e machine learning com GraphX.
PÚBLICO ALVO :
Desenvolvedores / Analistas de Dados
Escalar Pipelines de Dados com o Spark NLP
14 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a cientistas de dados e desenvolvedores que desejam usar Spark NLP, construído em cima de Apache Spark, para desenvolver, implementar e dimensionar modelos e pipelines de processamento de texto em linguagem natural.
No final deste treinamento, os participantes serão capazes de:
- Configurar o ambiente de desenvolvimento necessário para começar a construir pipelines de PNL com Spark NLP.
- Compreender os recursos, a arquitetura e os benefícios do uso de Spark NLP.
- Utilizar os modelos pré-treinados disponíveis em Spark NLP para implementar o processamento de texto.
- Aprender a construir, treinar e escalar modelos de Spark NLP para projectos de nível de produção.
- Aplicar classificação, inferência e análise de sentimentos em casos de uso real (dados clínicos, insights sobre o comportamento do cliente, etc.).
Python e Spark para Big Data (PySpark)
21 HorasNeste treinamento ao vivo conduzido por instrutor em Brasil, os participantes aprenderão como usar Python e Spark juntos para analisar big data enquanto trabalham em exercícios práticos.
Ao final deste treinamento, os participantes serão capazes de:
- Aprenda a usar o Spark com Python para analisar Big Data.
- Trabalhe em exercícios que imitam casos do mundo real.
- Use diferentes ferramentas e técnicas para análise de big data usando PySpark.
Python, Spark e Hadoop para Big Data
21 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a desenvolvedores que desejam usar e integrar o Spark, Hadoop e Python para processar, analisar e transformar conjuntos de dados grandes e complexos.
No final deste treinamento, os participantes serão capazes de:
- Configurar o ambiente necessário para iniciar o processamento de big data com Spark, Hadoop e Python.
- Compreender os recursos, componentes principais e arquitetura do Spark e Hadoop.
- Aprender como integrar Spark, Hadoop e Python para o processamento de big data.
- Explorar as ferramentas do ecossistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka e Flume).
- Construir sistemas de recomendação de filtragem colaborativa semelhantes a Netflix, YouTube, Amazon, Spotify e Google.
- Utilizar o Apache Mahout para escalar algoritmos de aprendizagem automática.
Apache Spark SQL
7 HorasO Spark SQL é o módulo do Apache Spark para trabalhar com dados estruturados e não estruturados. O Spark SQL fornece informações sobre a estrutura dos dados, bem como os cálculos sendo realizados. Essas informações podem ser usadas para realizar otimizações. Dois usos comuns do Spark SQL são:
- executar consultas SQL.
- ler dados de uma instalação existente do Hive.
Neste treinamento conduzido por um instrutor (presencial ou remoto), os participantes aprenderão a analisar vários tipos de conjuntos de dados usando Spark SQL.
Ao final deste treinamento, os participantes serão capazes de:
- Instalar e configurar o Spark SQL.
- Realizar análise de dados usando Spark SQL.
- Consultar conjuntos de dados em diferentes formatos.
- Visualizar dados e resultados de consultas.
Formato do Curso
- Aula interativa e discussão.
- Muitos exercícios e práticas.
- Implementação prática em um ambiente de laboratório ao vivo.
Opções de Customização do Curso
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
Stratio: Módulos Rocket e Intelligence com PySpark
14 HorasA Stratio é uma plataforma centrada em dados que integra big data, IA e governança em uma única solução. Seus módulos Rocket e Intelligence permitem a exploração rápida de dados, transformação e análises avançadas em ambientes empresariais.
Esta formação presencial (online ou no local), orientada por instrutor, é direcionada a profissionais de dados intermediários que desejam usar os módulos Rocket e Intelligence na Stratio efetivamente com PySpark, focando em estruturas de repetição, funções definidas pelo usuário e lógica de dados avançada.
Ao final deste treinamento, os participantes serão capazes de:
- Navegar e trabalhar dentro da plataforma Stratio usando os módulos Rocket e Intelligence.
- Aplicar PySpark no contexto de ingestão de dados, transformação e análise.
- Usar loops e lógica condicional para controlar fluxos de trabalho de dados e tarefas de engenharia de recursos.
- Criar e gerenciar funções definidas pelo usuário (UDFs) para operações reutilizáveis em PySpark.
Formato do Curso
- Aula interativa e discussão.
- Muitos exercícios e prática.
- Implementação hands-on em um ambiente de laboratório ao vivo.
Opções de Personalização do Curso
- Para solicitar uma formação personalizada para este curso, entre em contato conosco para agendar.