Descrição do Curso

  • Sobre o que é este curso?

    O Treinamento de Certificação Apache Storm da Simplilearn fornece uma experiência no processamento de fluxo de tecnologia de big data do Apache Storm.

    Ele equipa você com experiência no Apache Storm para processamento de eventos em tempo real com Big Data. O curso foi desenvolvido para permitir que você assuma as responsabilidades do desenvolvedor do Big Data Hadoop, exigindo habilidades do Apache Storm.

  • Quais são os objetivos do curso?

    Com o treinamento de certificação Apache Storm, você será capaz de:

    • Domine os conceitos fundamentais e a arquitetura do Apache Storm
    • Planeje a instalação e a configuração com o Apache Storm
    • Segure conceitos como Ingerindo e processando eventos em tempo real com o Storm
    • Entenda os fundamentos da extensão Trident para o Apache Storm
    • Compreenda completamente o agrupamento e a inserção de dados no Apache Storm
    • Entenda os fundamentos da Storm Interfaces com Kafka, Cassandra, Java

  • Quem deve fazer este curso?

    • Profissionais de análise
    • Profissionais de pesquisa
    • Desenvolvedores e testadores de TI
    • Gerentes de projeto
    • Cientistas de dados
    • Profissionais e estudantes que desejam uma carreira analítica em tempo real no Big Data Hadoop

  • Quais são os pré-requisitos para o curso?

    Os pré-requisitos para o curso Apache Storm são:

    • Conhecimento de trabalho de Java
    • Conhecimento básico de sistemas baseados em Linux ou Unix
    • Conhecimento básico de processamento de dados
    Recomenda-se fazer um Treinamento de Certificação Big Data Hadoop Developer como um pré-requisito, pois fornece uma excelente base para a certificação Apache Storm.

  • Como essa certificação me ajudaria a construir uma carreira no Big Data Hadoop?

    Esta certificação irá equipá-lo com conjuntos de habilidades para se tornar especialista em Apache no topo do Big Data Hadoop Developer.

    Após a conclusão deste curso, recomendamos que você aprimore seu conhecimento em Big Data Hadoop adquirindo habilidades com as seguintes certificações Big Data Hadoop da Simplilearn
    • Processamento em tempo real e análise em tempo real com Big Data
    • Análise interativa em tempo real do Big Data por meio de um ambiente SQL nativo
      • Impala - um mecanismo SQL de código aberto para treinamento do Hadoop
    • Tecnologias de banco de dados NoSQL
    Essas certificações certamente o tornariam proficiente com as habilidades necessárias para construir um plano de carreira, desde o desenvolvedor do Big Data Hadoop até o Big Data Hadoop Architect .

Prévia do curso

    • Lição 00 - Introdução 01:47
      • 0.1 Introdução 00:15
      • 0.2 Objetivos do Curso 00:24
      • 0.3 Visão geral do curso 00:19
      • 0,4 Público Alvo 00:23
      • 0.5 Pré-requisitos para o curso 00:10
      • 0,6 lições cobertas 00:11
      • 0,7 Conclusão 00:05
    • Lição 01 - Visão geral de big data 17:06
      • 1.1 Visão Geral de Big Data 00:17
      • 1.2 Objetivos 00:25
      • 1.3 Big Data 00:43
      • 1,4 3 Vs de Big Data 00:29
      • 1.5 Volume de Dados 00:52
      • 1.6 Tamanhos de Dados 00:30
      • 1.7 Velocidade dos Dados 01:08
      • 1.8 Variedade de Dados 00:51
      • 1.9 Evolução de Dados 00:53
      • 1.10 Recursos do Big Data 00:57
      • 1.11 Exemplos de indústria 02:14
      • 1.12 Análise de Big Data 01:06
      • 1.13 Comparação de Tecnologia 01:09
      • 1.14 Apache Hadoop 00:57
      • 1,15 HDFS 01:27
      • 1,16 MapReduce 00:48
      • 1.17 Big data em tempo real 00:33
      • 1.18 Exemplos de dados grandes em tempo real
      • 1.19 Ferramentas de Big Data em Tempo Real
      • 1.20 Zookeeper 00:27
      • 1,21 questionário
      • 1.22 Resumo 01:10
      • 1.23 Conclusão 00:10
    • Lição 02 - Introdução à Tempestade 22:37
      • 2.1 Introdução ao Storm 00:16
      • 2.2 Objetivos 00:21
      • 2.3 Apache Storm 00:23
      • 2.4 Usos da Tempestade 00:19
      • 2.5 O que é um fluxo? 01:02
      • 2.6 Casos de uso da indústria para o STORM 00:38
      • 2.7 Modelo de Dados STORM 01:14
      • 2.8 Arquitetura da Tempestade 01:02
      • 2.9 Processos Tempestuosos
      • 2.10 Programa de Amostra 01:27
      • 2.11 Componentes de tempestade 00:49
      • 2.12 Bico de Tempestade 00:49
      • 2.13 Raio de Tempestade 01:09
      • 2.14 Topologia de tempestade 00:51
      • 2.15 Exemplo de tempestade 01:10
      • 2.16 Serialização-Desserialização 01:07
      • 2.17 Submeter um trabalho a Storm 01:04
      • 2.18 Tipos de topologias
      • 2.19 Instalando o Ubuntu VM e conectando com o Putty Demo 1 08:07
      • 2.20 Questionário
      • 2.21 Resumo 00:41
      • 2.22 Conclusão 00:08
    • Lição 03 - Instalação e Configuração 09:17
      • 3.1 Instalação e Configuração 00:21
      • 3.2 Objetivos 00:25
      • Versões de 3.3 Storm 02:17
      • 3.4 Seleção do SO 00:39
      • 3.5 Seleção de Máquinas 00:59
      • 3.6 Preparando para a Instalação 00:31
      • 3,7 Download Kafka 00:39
      • 3.8 Download Storm 00:15
      • 3.9 Instalar o Kafka Demo 01 01:05
      • 3.10 Instale o Storm Demo 02 00:54
      • 3.11 Configurando o cluster Storm de vários nós
      • 3,12 Questionário
      • 3.13 Resumo 01:00
      • 3.14 Conclusão 00:12
    • Lição 04 - Storm Advanced Concepts 15:19
      • 4.1 Conceitos Avançados da Tempestade 00:13
      • 4.2 Objetivos 00:26
      • 4.3 Tipos de bicos 00:50
      • 4.4 Estrutura do bico 00:56
      • 4.5 Estrutura do Parafuso 00:44
      • 4.6 Agrupamentos de Fluxo
      • 4.7 Processamento Confiável na Tempestade 00:42
      • 4,8 Ack e Fail 00:56
      • 4,9 Ack Timeout 00:32
      • 4.10 Ancoragem 00:35
      • 4.11 Ciclo de Vida da Topologia 00:54
      • 4.12 Ingestão de Dados na Tempestade 00:29
      • 4.13 Ingestão de dados no exemplo da tempestade 00:16
      • 4.14 Ingestão de dados na saída de verificação de tempestade 00:19
      • 4.15 Capturas de tela para a entrada de dados em tempo real 00:37
      • 4.16 Definição do bico 01:27
      • 4.17 Definição de parafuso 02:26
      • 4.18 Topologia - bico e parafuso de conexão 01:32
      • 4,19 Classe de Embalagem 00:36
      • 4.20 Questionário
      • 4.21 Resumo 00:42
      • 4.22 Conclusão 00:07
    • Lição 05 - Interfaces Storm 31:26
      • 5.1 Interfaces de Tempestade 00:16
      • 5.2 Objetivos 00:26
      • 5.3 Interfaces de Tempestade 00:27
      • 5.4 Interface Java para Tempestade 00:22
      • 5.5 Compile e execute uma interface Java para o Storm Demo 01 04:33
      • 5.6 Interface do bico 00:29
      • 5.7 Métodos IRichSpout
      • 5.8 Métodos BaseRichSpout
      • 5.9 Interface OutputFieldsDeclarer
      • 5.10 Exemplo de Definição do Bico 01:32
      • 5.11 Interface de Bolso 00:52
      • 5.12 Métodos Irichbolt 01:00
      • 5.13 Métodos de Baserichbolt 00:33
      • 5.14 Métodos Ibasicbolt
      • 5.15 Exemplo de interface de parafuso 1 00:41
      • 5.16 Exemplo de interface de parafuso 2 00:38
      • 5.17 Interface de Topologia 00:38
      • 5.18 Métodos do TopologyBuilder
      • 5.19 Métodos de BoltDeclarer 01:22
      • 5.20 Métodos StormSubmitter 01:06
      • Exemplo de 5.21 Topology Builder 01:28
      • 5.22 Apache Kafka Recap 00:37
      • 5.23 Modelo de Dados Kafka 01:18
      • 5.24 Apache Cassandra Recapitulação 00:53
      • 5.25 Plataforma de análise de dados em tempo real 01:03
      • Interface de 5.26 Kafka para Storm 01:09
      • 5,27 Kafka Bico 00:38
      • 5,28 Kafka Spout Configuração 01:33
      • 5,29 Kafka Spout Schemes 01:01
      • 5,30 Usando o bico de Kafka na tempestade 00:53
      • 5.31 Interface de tempestade para Cassandra 00:28
      • 5.32 Inserir ou atualizar o Cassandra 00:42
      • 5.33 Configurando a Sessão Cassandra 00:45
      • 5.34 Inserir ou atualizar dados em Cassandra de Bolt 02:13
      • 5,35 Kafka - Tempestade - Cassandra 00:56
      • 5,36 Questionário
      • Resumo 5.37 00:47
      • 5.38 Conclusão 00:07
    • Lição 06 - Storm Trident 18:28
      • 6,1 Tempestade Tridente 00:15
      • 6.2 Objetivos 00:20
      • 6.3 Introdução ao Tridente 00:31
      • 6.4 Modelo de Dados Trident 01:11
      • 6.5 Processamento com estado usando o Trident 00:40
      • 6.6 Operações no Tridente
      • 6.7 Estado do Tridente 00:52
      • 6.8 Topologia Tridente
      • 6,9 Bicos Trident
      • 6.10 Compile e execute o bica Trident Demo 1 05:22
      • 6.11 Níveis de tolerância a falhas 00:47
      • 6.12 Pipelining 00:52
      • 6.13 Exatamente após o processamento 00:49
      • 6.14 Exemplo de Definição de Bico 01:44
      • 6.15 Exemplo de Operação Trident 00:40
      • 6.16 Armazenando o exemplo de saída 00:38
      • 6.17 Topologia - Conexão do Bico e Parafuso 01:28
      • 6.18 Topologia - Função Principal 00:42
      • 6,19 Classe Wrapper 00:29
      • 6.20 Vantagens Trident 00:37
      • 6,21 Quiz
      • 6.22 Resumo 00:24
      • 6.23 Conclusão 00:07
    • Lição 01 - Essenciais do Java para o Hadoop 31:10
      • 1.1 Essenciais do Java para o Hadoop 00:19
      • 1.2 Objetivos da lição 00:24
      • 1.3 Definição Java 00:27
      • 1.4 Java Virtual Machine (JVM) 00:34
      • 1.5 Trabalho de Java 01:01
      • 1.6 Executando um Programa Java Básico 00:56
      • 1.7 Executando um Programa Java Básico (continuação) 01:15
      • 1.8 Executando um programa Java básico no NetBeans IDE 00:11
      • 1.9 SINTAXE BASIC JAVA 00:12
      • 1.10 Tipos de dados em Java 00:26
      • 1.11 Variáveis ​​em Java 01:31
      • 1.12 Nomeando Convenções de Variáveis 01:21
      • 1.13 Tipo de Fundição. 01:05
      • 1.14 Operadores 00:30
      • 1.15 Operadores matemáticos 00:28
      • 1.16 Operadores Unários. 00:15
      • 1.17 Operadores Relacionais 00:19
      • 1.18 Operadores Lógicos ou Condicionais 00:19
      • 1.19 Operadores bit a bit 01:21
      • 1.20 Variáveis ​​estáticas versus variáveis ​​não estáticas 00:54
      • 1.21 Variáveis ​​estáticas versus variáveis ​​não estáticas (cont.) 00:17
      • 1.22 Declarações e Blocos de Código 01:21
      • 1.23 Controle de Fluxo 00:47
      • 1.24 Declaração 00:40
      • 1.25 Variantes da declaração if 01:07
      • 1.26 Aninhado se declaração 00:40
      • 1.27 Switch Statement 00:36
      • 1.28 Declaração de troca (continuação) 00:34
      • 1.29 Declarações de Loop 01:19
      • 1.30 Declarações de Loop (continuação) 00:49
      • 1.31 Declarações de quebra e continuação 00:44
      • 1.32 Construções Java Básicas 01:09
      • 1,33 matrizes 01:16
      • 1,34 Arrays (continuação) 01:07
      • 1,35 CLASSES JAVA E MÉTODOS 00:09
      • 1,36 aulas 00:46
      • 1,37 Objetos 01:21
      • 1.38 Métodos 01:01
      • 1.39 Modificadores de Acesso 00:49
      • Resumo 1.40 00:41
      • 1.41 Obrigado 00:09
    • Lição 02 - Construtores Java 21:31
      • 2.1 Construtores Java 00:22
      • 2.2 Objetivos 00:42
      • 2.3 Recursos do Java 01:08
      • 2.4 Classes Objetos e Construtores 01:19
      • 2.5 Construtores 00:34
      • 2.6 Sobrecarga de Construtor 01:08
      • 2.7 Sobrecarga de construtor (continuação) 00:28
      • 2.8 PACOTES 00:09
      • 2.9 Definição de Pacotes 01:12
      • 2.10 Vantagens dos Pacotes 00:29
      • 2.11 Convenções de Nomenclatura de Pacotes 00:28
      • 2.12 HERANÇA 00:09
      • 2.13 Definição de herança 01:07
      • 2.14 Herança Multinível 01:15
      • 2.15 Herança Hierárquica 00:23
      • 2.16 Substituição do método 00:55
      • 2.17 Substituição do método (continuação) 00:35
      • 2.18 Substituição do método (continuação) 00:15
      • 2.19 AULAS ABSTRATAS 00:10
      • 2.20 Definição de Classes Abstratas 00:41
      • 2.21 Uso de Classes Abstratas 00:36
      • 2.22 INTERFACES 00:08
      • 2.23 Recursos de Interfaces 01:03
      • 2.24 Sintaxe para criar interfaces 00:24
      • 2.25 Implementando uma interface 00:23
      • 2.26 Implementando uma Interface (continuação) 00:13
      • 2.27 ENTRADA E SAÍDA 00:14
      • 2.28 Recursos de entrada e saída 00:49
      • Método 2.29 System.in.read () 00:20
      • 2.30 Leitura de entrada do console 00:31
      • 2.31 Objetos Stream 00:21
      • 2.32 Classe Tokenizer de Cadeia 00:43
      • 2,33 Scanner de Classe 00:32
      • 2.34 Escrevendo Saída para o Console 00:28
      • Resumo 2.35 01:03
      • 2.36 Obrigado 00:14
    • Lição 03 - Classes Essenciais e Exceções em Java 28:37
      • 3.1 Classes Essenciais e Exceções em Java 00:18
      • 3.2 Objetivos 00:31
      • 3.3 Os Enums em Java 01:00
      • 3.4 Programa Usando Enum 00:44
      • 3.5 ArrayList 00:41
      • 3.6 Construtores ArrayList 00:38
      • 3.7 Métodos de ArrayList 01:02
      • 3.8 Inserção de ArrayList 00:47
      • 3.9 Inserção de ArrayList (continuação) 00:38
      • 3,10 Iterador 00:39
      • 3.11 Iterador (continuação) 00:33
      • 3.12 ListIterator 00:46
      • 3,13 ListIterator (continuação) 01:00
      • 3.14 Exibindo itens usando ListIterator 00:32
      • 3,15 For-Each Loop 00:35
      • 3.16 For-Each Loop (cont.) 00:23
      • 3.17 Enumeração 00:30
      • 3.18 Enumeração (continuação) 00:25
      • 3,19 HASHMAPS 00:15
      • 3.20 Recursos do Hashmaps 00:56
      • 3.21 Construtores de Hashmap 01:36
      • 3.22 Métodos de Hashmap 00:58
      • 3.23 Inserção de Hashmap 00:44
      • 3.24 CLASSE HÁBIL 00:21
      • 3.25 Classe de Hashtable e Construtores 01:25
      • 3.26 Métodos de Hashtable 00:41
      • 3.27 Métodos de Hashtable 00:48
      • 3.28 Inserção e Exibição de Hashtable 00:29
      • 3.29 Inserção e Exibição da Mesa de Hash (continuação) 00:22
      • 3,30 EXCEÇÕES 00:22
      • 3.31 Tratamento de Exceções 01:06
      • 3.32 Classes de Exceção 00:26
      • 3.33 Exceções Definidas pelo Usuário 01:04
      • 3.34 Tipos de Exceções 00:44
      • 3.35 Mecanismos de Tratamento de Exceções 00:54
      • 3.36 Bloco Try-Catch 00:15
      • 3.37 Vários Blocos de Captura 00:40
      • 3.38 Declaração de lançamento 00:33
      • 3.39 Declaração de lançamento (continuação) 00:25
      • 3.40 Exceções Definidas pelo Usuário 00:11
      • 3.41 Vantagens de usar exceções 00:25
      • 3.42 Erro ao manipular e finalmente bloquear 00:30
      • 3.43 Resumo 00:41
      • 3,44 Obrigado 00:04
    • {{childObj.title}}
      • {{childObj.childSection.chapter_name}}
        • {{lesson.title}}
      • {{lesson.title}}

    View More

    View Less

Exame e certificação

  • Como se tornar um Certified Apache Storm Professional?

    No final do curso, você receberá um certificado de conclusão do curso dizendo que você concluiu com sucesso o treinamento Simplilearn na tecnologia Apache Storm.

    Você receberá uma certificação no Apache Storm, limpando o exame on-line com uma pontuação mínima de 60%.

    Para ajudar você a se preparar para um exame de certificação, nós forneceremos um exame de simulação e um exame prático.

  • O que preciso fazer para desbloquear meu certificado Simplilearn?

    Auto-aprendizagem online :
    • Complete 85% do curso.
    • Complete pelo menos 1 teste de simulação com uma pontuação mínima de 60%.

FAQs

  • Quais são os requisitos do sistema?

    Para este treinamento, recomendamos um sistema com o sistema operacional Windows 7 ou superior, com pelo menos 4 GB de RAM.

  • Posso cancelar minha inscrição? Eu recebo um reembolso?

    Sim, você pode cancelar sua inscrição. Nós fornecemos um reembolso completo após deduzir a taxa de administração. Para saber mais, consulte nossa Política de reembolso .

  • Quem fornece a certificação?

    No final do treinamento, você precisa limpar o exame on-line com uma pontuação mínima de 80%. Para ajudar você a se preparar para um exame de certificação, forneceremos um exame de simulação como um exame prático.

    Sujeito à pontuação do exame on-line (mínimo de 60%), você receberá um certificado de conclusão do curso informando que concluiu com êxito o treinamento Simplilearn na tecnologia Apache Storm.

  • Quais são as opções de pagamento?

    Os pagamentos podem ser feitos usando qualquer uma das seguintes opções e um recibo do mesmo será emitido para você automaticamente via e-mail.
    • Cartão de Débito / Crédito Visa
    • Cartão American Express e Diners Club
    • Master Card, ou
    • PayPal

  • Eu quero saber mais sobre o programa de treinamento. Com quem eu entro em contato?

    Por favor, junte-se ao nosso chat ao vivo para suporte instantâneo, ligue para nós ou solicite uma chamada de retorno para ter sua consulta resolvida.

    • Disclaimer
    • PMP, PMI, PMBOK, CAPM, PgMP, PfMP, ACP, PBA, RMP, SP, and OPM3 are registered marks of the Project Management Institute, Inc.