Descrição do Curso

  • Sobre o que é este curso?

    O Treinamento de Certificação Apache Storm da Simplilearn fornece uma experiência no processamento de fluxo de tecnologia de big data do Apache Storm.

    Ele equipa você com experiência no Apache Storm para processamento de eventos em tempo real com Big Data. O curso foi desenvolvido para permitir que você assuma as responsabilidades do desenvolvedor do Big Data Hadoop, exigindo habilidades do Apache Storm.

  • Quais são os objetivos do curso?

    Com o treinamento de certificação Apache Storm, você será capaz de:

    • Domine os conceitos fundamentais e a arquitetura do Apache Storm
    • Planeje a instalação e a configuração com o Apache Storm
    • Segure conceitos como Ingerindo e processando eventos em tempo real com o Storm
    • Entenda os fundamentos da extensão Trident para o Apache Storm
    • Compreenda completamente o agrupamento e a inserção de dados no Apache Storm
    • Entenda os fundamentos da Storm Interfaces com Kafka, Cassandra, Java

  • Quem deve fazer este curso?

    • Profissionais de análise
    • Profissionais de pesquisa
    • Desenvolvedores e testadores de TI
    • Gerentes de projeto
    • Cientistas de dados
    • Profissionais e estudantes que desejam uma carreira analítica em tempo real no Big Data Hadoop

  • Quais são os pré-requisitos para o curso?

    Os pré-requisitos para o curso Apache Storm são:

    • Conhecimento de trabalho de Java
    • Conhecimento básico de sistemas baseados em Linux ou Unix
    • Conhecimento básico de processamento de dados
    Recomenda-se fazer um Treinamento de Certificação Big Data Hadoop Developer como um pré-requisito, pois fornece uma excelente base para a certificação Apache Storm.

  • Como essa certificação me ajudaria a construir uma carreira no Big Data Hadoop?

    Esta certificação irá equipá-lo com conjuntos de habilidades para se tornar especialista em Apache no topo do Big Data Hadoop Developer.

    Após a conclusão deste curso, recomendamos que você aprimore seu conhecimento em Big Data Hadoop adquirindo habilidades com as seguintes certificações Big Data Hadoop da Simplilearn
    • Processamento em tempo real e análise em tempo real com Big Data
    • Análise interativa em tempo real do Big Data por meio de um ambiente SQL nativo
      • Impala - um mecanismo SQL de código aberto para treinamento do Hadoop
    • Tecnologias de banco de dados NoSQL
    Essas certificações certamente o tornariam proficiente com as habilidades necessárias para construir um plano de carreira, desde o desenvolvedor do Big Data Hadoop até o Big Data Hadoop Architect .

Prévia do curso

    • Lição 00 - Introdução 01:47
      • 0.1 Introdução00:15
      • 0.2 Objetivos do Curso00:24
      • 0.3 Visão geral do curso00:19
      • 0,4 Público Alvo00:23
      • 0.5 Pré-requisitos para o curso00:10
      • 0,6 lições cobertas00:11
      • 0,7 Conclusão00:05
    • Lição 01 - Visão geral de big data 17:06
      • 1.1 Visão Geral de Big Data00:17
      • 1.2 Objetivos00:25
      • 1.3 Big Data00:43
      • 1,4 3 Vs de Big Data00:29
      • 1.5 Volume de Dados00:52
      • 1.6 Tamanhos de Dados00:30
      • 1.7 Velocidade dos Dados01:08
      • 1.8 Variedade de Dados00:51
      • 1.9 Evolução de Dados00:53
      • 1.10 Recursos do Big Data00:57
      • 1.11 Exemplos de indústria02:14
      • 1.12 Análise de Big Data01:06
      • 1.13 Comparação de Tecnologia01:09
      • 1.14 Apache Hadoop00:57
      • 1,15 HDFS01:27
      • 1,16 MapReduce00:48
      • 1.17 Big data em tempo real00:33
      • 1.18 Exemplos de dados grandes em tempo real
      • 1.19 Ferramentas de Big Data em Tempo Real
      • 1.20 Zookeeper00:27
      • 1,21 questionário
      • 1.22 Resumo01:10
      • 1.23 Conclusão00:10
    • Lição 02 - Introdução à Tempestade 22:37
      • 2.1 Introdução ao Storm00:16
      • 2.2 Objetivos00:21
      • 2.3 Apache Storm00:23
      • 2.4 Usos da Tempestade00:19
      • 2.5 O que é um fluxo?01:02
      • 2.6 Casos de uso da indústria para o STORM00:38
      • 2.7 Modelo de Dados STORM01:14
      • 2.8 Arquitetura da Tempestade01:02
      • 2.9 Processos Tempestuosos
      • 2.10 Programa de Amostra01:27
      • 2.11 Componentes de tempestade00:49
      • 2.12 Bico de Tempestade00:49
      • 2.13 Raio de Tempestade01:09
      • 2.14 Topologia de tempestade00:51
      • 2.15 Exemplo de tempestade01:10
      • 2.16 Serialização-Desserialização01:07
      • 2.17 Submeter um trabalho a Storm01:04
      • 2.18 Tipos de topologias
      • 2.19 Instalando o Ubuntu VM e conectando com o Putty Demo 108:07
      • 2.20 Questionário
      • 2.21 Resumo00:41
      • 2.22 Conclusão00:08
    • Lição 03 - Instalação e Configuração 09:17
      • 3.1 Instalação e Configuração00:21
      • 3.2 Objetivos00:25
      • Versões de 3.3 Storm02:17
      • 3.4 Seleção do SO00:39
      • 3.5 Seleção de Máquinas00:59
      • 3.6 Preparando para a Instalação00:31
      • 3,7 Download Kafka00:39
      • 3.8 Download Storm00:15
      • 3.9 Instalar o Kafka Demo 0101:05
      • 3.10 Instale o Storm Demo 0200:54
      • 3.11 Configurando o cluster Storm de vários nós
      • 3,12 Questionário
      • 3.13 Resumo01:00
      • 3.14 Conclusão00:12
    • Lição 04 - Storm Advanced Concepts 15:19
      • 4.1 Conceitos Avançados da Tempestade00:13
      • 4.2 Objetivos00:26
      • 4.3 Tipos de bicos00:50
      • 4.4 Estrutura do bico00:56
      • 4.5 Estrutura do Parafuso00:44
      • 4.6 Agrupamentos de Fluxo
      • 4.7 Processamento Confiável na Tempestade00:42
      • 4,8 Ack e Fail00:56
      • 4,9 Ack Timeout00:32
      • 4.10 Ancoragem00:35
      • 4.11 Ciclo de Vida da Topologia00:54
      • 4.12 Ingestão de Dados na Tempestade00:29
      • 4.13 Ingestão de dados no exemplo da tempestade00:16
      • 4.14 Ingestão de dados na saída de verificação de tempestade00:19
      • 4.15 Capturas de tela para a entrada de dados em tempo real00:37
      • 4.16 Definição do bico01:27
      • 4.17 Definição de parafuso02:26
      • 4.18 Topologia - bico e parafuso de conexão01:32
      • 4,19 Classe de Embalagem00:36
      • 4.20 Questionário
      • 4.21 Resumo00:42
      • 4.22 Conclusão00:07
    • Lição 05 - Interfaces Storm 31:26
      • 5.1 Interfaces de Tempestade00:16
      • 5.2 Objetivos00:26
      • 5.3 Interfaces de Tempestade00:27
      • 5.4 Interface Java para Tempestade00:22
      • 5.5 Compile e execute uma interface Java para o Storm Demo 0104:33
      • 5.6 Interface do bico00:29
      • 5.7 Métodos IRichSpout
      • 5.8 Métodos BaseRichSpout
      • 5.9 Interface OutputFieldsDeclarer
      • 5.10 Exemplo de Definição do Bico01:32
      • 5.11 Interface de Bolso00:52
      • 5.12 Métodos Irichbolt01:00
      • 5.13 Métodos de Baserichbolt00:33
      • 5.14 Métodos Ibasicbolt
      • 5.15 Exemplo de interface de parafuso 100:41
      • 5.16 Exemplo de interface de parafuso 200:38
      • 5.17 Interface de Topologia00:38
      • 5.18 Métodos do TopologyBuilder
      • 5.19 Métodos de BoltDeclarer01:22
      • 5.20 Métodos StormSubmitter01:06
      • Exemplo de 5.21 Topology Builder01:28
      • 5.22 Apache Kafka Recap00:37
      • 5.23 Modelo de Dados Kafka01:18
      • 5.24 Apache Cassandra Recapitulação00:53
      • 5.25 Plataforma de análise de dados em tempo real01:03
      • Interface de 5.26 Kafka para Storm01:09
      • 5,27 Kafka Bico00:38
      • 5,28 Kafka Spout Configuração01:33
      • 5,29 Kafka Spout Schemes01:01
      • 5,30 Usando o bico de Kafka na tempestade00:53
      • 5.31 Interface de tempestade para Cassandra00:28
      • 5.32 Inserir ou atualizar o Cassandra00:42
      • 5.33 Configurando a Sessão Cassandra00:45
      • 5.34 Inserir ou atualizar dados em Cassandra de Bolt02:13
      • 5,35 Kafka - Tempestade - Cassandra00:56
      • 5,36 Questionário
      • Resumo 5.3700:47
      • 5.38 Conclusão00:07
    • Lição 06 - Storm Trident 18:28
      • 6,1 Tempestade Tridente00:15
      • 6.2 Objetivos00:20
      • 6.3 Introdução ao Tridente00:31
      • 6.4 Modelo de Dados Trident01:11
      • 6.5 Processamento com estado usando o Trident00:40
      • 6.6 Operações no Tridente
      • 6.7 Estado do Tridente00:52
      • 6.8 Topologia Tridente
      • 6,9 Bicos Trident
      • 6.10 Compile e execute o bica Trident Demo 105:22
      • 6.11 Níveis de tolerância a falhas00:47
      • 6.12 Pipelining00:52
      • 6.13 Exatamente após o processamento00:49
      • 6.14 Exemplo de Definição de Bico01:44
      • 6.15 Exemplo de Operação Trident00:40
      • 6.16 Armazenando o exemplo de saída00:38
      • 6.17 Topologia - Conexão do Bico e Parafuso01:28
      • 6.18 Topologia - Função Principal00:42
      • 6,19 Classe Wrapper00:29
      • 6.20 Vantagens Trident00:37
      • 6,21 Quiz
      • 6.22 Resumo00:24
      • 6.23 Conclusão00:07
    • Lição 01 - Essenciais do Java para o Hadoop 31:10
      • 1.1 Essenciais do Java para o Hadoop00:19
      • 1.2 Objetivos da lição00:24
      • 1.3 Definição Java00:27
      • 1.4 Java Virtual Machine (JVM)00:34
      • 1.5 Trabalho de Java01:01
      • 1.6 Executando um Programa Java Básico00:56
      • 1.7 Executando um Programa Java Básico (continuação)01:15
      • 1.8 Executando um programa Java básico no NetBeans IDE00:11
      • 1.9 SINTAXE BASIC JAVA00:12
      • 1.10 Tipos de dados em Java00:26
      • 1.11 Variáveis ​​em Java01:31
      • 1.12 Nomeando Convenções de Variáveis01:21
      • 1.13 Tipo de Fundição.01:05
      • 1.14 Operadores00:30
      • 1.15 Operadores matemáticos00:28
      • 1.16 Operadores Unários.00:15
      • 1.17 Operadores Relacionais00:19
      • 1.18 Operadores Lógicos ou Condicionais00:19
      • 1.19 Operadores bit a bit01:21
      • 1.20 Variáveis ​​estáticas versus variáveis ​​não estáticas00:54
      • 1.21 Variáveis ​​estáticas versus variáveis ​​não estáticas (cont.)00:17
      • 1.22 Declarações e Blocos de Código01:21
      • 1.23 Controle de Fluxo00:47
      • 1.24 Declaração00:40
      • 1.25 Variantes da declaração if01:07
      • 1.26 Aninhado se declaração00:40
      • 1.27 Switch Statement00:36
      • 1.28 Declaração de troca (continuação)00:34
      • 1.29 Declarações de Loop01:19
      • 1.30 Declarações de Loop (continuação)00:49
      • 1.31 Declarações de quebra e continuação00:44
      • 1.32 Construções Java Básicas01:09
      • 1,33 matrizes01:16
      • 1,34 Arrays (continuação)01:07
      • 1,35 CLASSES JAVA E MÉTODOS00:09
      • 1,36 aulas00:46
      • 1,37 Objetos01:21
      • 1.38 Métodos01:01
      • 1.39 Modificadores de Acesso00:49
      • Resumo 1.4000:41
      • 1.41 Obrigado00:09
    • Lição 02 - Construtores Java 21:31
      • 2.1 Construtores Java00:22
      • 2.2 Objetivos00:42
      • 2.3 Recursos do Java01:08
      • 2.4 Classes Objetos e Construtores01:19
      • 2.5 Construtores00:34
      • 2.6 Sobrecarga de Construtor01:08
      • 2.7 Sobrecarga de construtor (continuação)00:28
      • 2.8 PACOTES00:09
      • 2.9 Definição de Pacotes01:12
      • 2.10 Vantagens dos Pacotes00:29
      • 2.11 Convenções de Nomenclatura de Pacotes00:28
      • 2.12 HERANÇA00:09
      • 2.13 Definição de herança01:07
      • 2.14 Herança Multinível01:15
      • 2.15 Herança Hierárquica00:23
      • 2.16 Substituição do método00:55
      • 2.17 Substituição do método (continuação)00:35
      • 2.18 Substituição do método (continuação)00:15
      • 2.19 AULAS ABSTRATAS00:10
      • 2.20 Definição de Classes Abstratas00:41
      • 2.21 Uso de Classes Abstratas00:36
      • 2.22 INTERFACES00:08
      • 2.23 Recursos de Interfaces01:03
      • 2.24 Sintaxe para criar interfaces00:24
      • 2.25 Implementando uma interface00:23
      • 2.26 Implementando uma Interface (continuação)00:13
      • 2.27 ENTRADA E SAÍDA00:14
      • 2.28 Recursos de entrada e saída00:49
      • Método 2.29 System.in.read ()00:20
      • 2.30 Leitura de entrada do console00:31
      • 2.31 Objetos Stream00:21
      • 2.32 Classe Tokenizer de Cadeia00:43
      • 2,33 Scanner de Classe00:32
      • 2.34 Escrevendo Saída para o Console00:28
      • Resumo 2.3501:03
      • 2.36 Obrigado00:14
    • Lição 03 - Classes Essenciais e Exceções em Java 28:37
      • 3.1 Classes Essenciais e Exceções em Java00:18
      • 3.2 Objetivos00:31
      • 3.3 Os Enums em Java01:00
      • 3.4 Programa Usando Enum00:44
      • 3.5 ArrayList00:41
      • 3.6 Construtores ArrayList00:38
      • 3.7 Métodos de ArrayList01:02
      • 3.8 Inserção de ArrayList00:47
      • 3.9 Inserção de ArrayList (continuação)00:38
      • 3,10 Iterador00:39
      • 3.11 Iterador (continuação)00:33
      • 3.12 ListIterator00:46
      • 3,13 ListIterator (continuação)01:00
      • 3.14 Exibindo itens usando ListIterator00:32
      • 3,15 For-Each Loop00:35
      • 3.16 For-Each Loop (cont.)00:23
      • 3.17 Enumeração00:30
      • 3.18 Enumeração (continuação)00:25
      • 3,19 HASHMAPS00:15
      • 3.20 Recursos do Hashmaps00:56
      • 3.21 Construtores de Hashmap01:36
      • 3.22 Métodos de Hashmap00:58
      • 3.23 Inserção de Hashmap00:44
      • 3.24 CLASSE HÁBIL00:21
      • 3.25 Classe de Hashtable e Construtores01:25
      • 3.26 Métodos de Hashtable00:41
      • 3.27 Métodos de Hashtable00:48
      • 3.28 Inserção e Exibição de Hashtable00:29
      • 3.29 Inserção e Exibição da Mesa de Hash (continuação)00:22
      • 3,30 EXCEÇÕES00:22
      • 3.31 Tratamento de Exceções01:06
      • 3.32 Classes de Exceção00:26
      • 3.33 Exceções Definidas pelo Usuário01:04
      • 3.34 Tipos de Exceções00:44
      • 3.35 Mecanismos de Tratamento de Exceções00:54
      • 3.36 Bloco Try-Catch00:15
      • 3.37 Vários Blocos de Captura00:40
      • 3.38 Declaração de lançamento00:33
      • 3.39 Declaração de lançamento (continuação)00:25
      • 3.40 Exceções Definidas pelo Usuário00:11
      • 3.41 Vantagens de usar exceções00:25
      • 3.42 Erro ao manipular e finalmente bloquear00:30
      • 3.43 Resumo00:41
      • 3,44 Obrigado00:04
    • {{childObj.title}}
      • {{childObj.childSection.chapter_name}}
        • {{lesson.title}}
      • {{lesson.title}}

    View More

    View Less

Exame e certificação

  • Como se tornar um Certified Apache Storm Professional?

    No final do curso, você receberá um certificado de conclusão do curso dizendo que você concluiu com sucesso o treinamento Simplilearn na tecnologia Apache Storm.

    Você receberá uma certificação no Apache Storm, limpando o exame on-line com uma pontuação mínima de 60%.

    Para ajudar você a se preparar para um exame de certificação, nós forneceremos um exame de simulação e um exame prático.

  • O que preciso fazer para desbloquear meu certificado Simplilearn?

    Auto-aprendizagem online :
    • Complete 85% do curso.
    • Complete pelo menos 1 teste de simulação com uma pontuação mínima de 60%.

    • Disclaimer
    • PMP, PMI, PMBOK, CAPM, PgMP, PfMP, ACP, PBA, RMP, SP, and OPM3 are registered marks of the Project Management Institute, Inc.