Descrição do Curso

  • Por que aprender o Apache Spark e o Scala?

  • Quais são os objetivos do curso?

    Os treinamentos de certificação Apache Spark e Scala da Simplilearn são projetados para:
    • Avance seus conhecimentos no ecossistema Big Data Hadoop
    • Ajude você a dominar as habilidades essenciais do Apache e do Spark, como Spark Streaming, Spark SQL, programação de aprendizado de máquina, programação GraphX ​​e Shell Scripting Spark.
    • Ajudá-lo a conseguir um trabalho de desenvolvedor do Hadoop exigindo a experiência do Apache Spark, oferecendo a você um projeto real da indústria, juntamente com 30 demonstrações

  • Quais habilidades você aprenderá?

    Ao concluir este curso Apache Spark e Scala, você será capaz de:
    • Entenda as limitações do MapReduce e o papel do Spark em superar essas limitações
    • Entenda os fundamentos da linguagem de programação Scala e seus recursos
    • Explicar e dominar o processo de instalação do Spark como um cluster independente
    • Desenvolver experiência no uso de conjuntos de dados distribuídos resilientes (RDD) para criar aplicativos no Spark
    • Linguagem de Consulta Estruturada Mestre (SQL) usando o SparkSQL
    • Obtenha uma compreensão completa dos recursos de streaming do Spark
    • Domine e descreva os recursos da programação do Spark ML e da programação GraphX

  • Quem deve fazer este curso de Scala?

    • Profissionais que aspiram a uma carreira no campo da análise de big data em tempo real
    • Profissionais de análise
    • Profissionais de pesquisa
    • Desenvolvedores e testadores de TI
    • Cientistas de dados
    • Profissionais de BI e relatórios
    • Alunos que desejam obter uma compreensão completa do Apache Spark

  • Quais projetos estão incluídos neste curso de treinamento Spark?

    Este curso de treinamento Apache Spark e Scala tem um projeto. Neste cenário de projeto, uma universidade baseada nos EUA coletou conjuntos de dados que representam revisões de filmes de vários revisores. Para obter insights aprofundados dos dados de pesquisa coletados, você deve executar uma série de tarefas no Spark no conjunto de dados fornecido.

Prévia do curso

    • Lição 00 - Visão Geral do Curso 04:12
      • 0.1 Introdução 00:13
      • 0.2 Objetivos do Curso 00:28
      • 0.3 Visão geral do curso 00:38
      • 0,4 Público Alvo 00:31
      • 0.5 Pré-requisitos do curso 00:21
      • 0,6 Valor para os Profissionais 00:48
      • 0,7 Valor para os profissionais (cont.) 00:20
      • 0,8 Valor para os Profissionais (continuação) 00:21
      • 0.9 lições cobertas 00:24
      • 0.10 Conclusão 00:08
    • Lição 01 - Introdução ao Spark 25:34
      • 1.1 Introdução 00:15
      • 1.2 Objetivos 00:26
      • 1.3 Evolução de Sistemas Distribuídos
      • 1.4 Necessidade de Sistemas Distribuídos de Nova Geração 01:15
      • 1.5 Limitações do MapReduce no Hadoop 01:06
      • 1.6 Limitações do MapReduce no Hadoop (continuação) 01:07
      • 1.7 Processamento em lote versus processamento em tempo real 01:09
      • 1.8 Aplicação do Processamento de Fluxo 00:07
      • 1.9 Aplicação do processamento na memória 01:48
      • 1.10 Introdução ao Apache Spark 00:45
      • 1.11 Componentes de um projeto Spark
      • 1.12 História da centelha 00:50
      • 1.13 Flexibilidade de Linguagem no Spark 00:55
      • 1.14 Arquitetura Spark Execution 01:13
      • 1.15 Paralelização Automática de Fluxos Complexos 00:59
      • 1.16 Paralelização Automática de Fluxos Complexos - Pontos Importantes 01:13
      • 1.17 APIs que correspondem aos objetivos do usuário 01:06
      • 1.18 Apache Spark-A Plataforma Unificada de Aplicativos de Big Data 01:38
      • 1.19 Mais benefícios do Apache Spark 01:05
      • 1.20 Correndo Spark em diferentes modos 00:41
      • 1.21 Instalando o Spark como um cluster autônomo - configurações
      • 1.22 Instalando o Spark como um cluster autônomo - configurações 00:08
      • 1.23 Demo-Install Apache Spark 00:08
      • 1.24 Demo-Install Apache Spark 02:41
      • 1.25 Visão geral do Spark em um cluster 00:47
      • 1.26 Tarefas do Spark em um cluster 00:37
      • 1.27 Empresas Usando Casos de Uso do Spark 00:46
      • 1.28 Ecossistema do Hadoop vs. Apache Spark 00:32
      • 1.29 Ecossistema Hadoop vs. Apache Spark (continuação) 00:43
      • 1,30 quiz
      • 1.31 Resumo 00:40
      • 1.32 Resumo (continuação) 00:41
      • 1.33 Conclusão 00:13
    • Lição 02 - Introdução à Programação no Scala 37:35
      • 2.1 Introdução 00:11
      • 2.2 Objetivos 00:16
      • 2.3 Introdução ao Scala 01:32
      • 2.4 Recursos do Scala
      • 2.5 Tipos Básicos de Dados 00:24
      • 2.6 Literais Básicos 00:35
      • 2.7 Literais Básicos (cont.) 00:25
      • 2.8 Literais Básicos (cont.) 00:21
      • 2.9 Introdução aos Operadores 00:31
      • 2.10 Tipos de Operadores
      • 2.11 Use Literais Básicos e o Operador Aritmético 00:08
      • 2.12 Demo Use os Literais Básicos e o Operador Aritmético 03:18
      • 2.13 Use o operador lógico 00:07
      • 2.14 Demo Use o operador lógico 01:40
      • 2.15 Introdução à inferência de tipos 00:34
      • 2.16 Inferência de Tipo para Métodos Recursivos 00:10
      • 2.17 Inferência de Tipos para Métodos Polimórficos e Classes Genéricas 00:30
      • 2.18 Falta de confiabilidade no mecanismo de inferência de tipo 00:23
      • 2.19 Coleção Mutável vs. Coleção Imutável 01:13
      • 2.20 Funções 00:21
      • 2.21 Funções Anônimas 00:22
      • 2.22 Objetos 01:08
      • 2,23 aulas 00:36
      • 2.24 Usar inferência de tipos, funções, função anônima e classe 00:09
      • 2.25 Demo Uso Inferência de Tipo, Funções, Função Anônima e Classe 07:40
      • 2.26 Traços como Interfaces 00:57
      • 2,27 traços-exemplo 00:09
      • 2.28 Coleções 00:42
      • 2.29 Tipos de coleções 00:25
      • 2.30 Tipos de coleções (continuação) 00:26
      • 2,31 Listas 00:28
      • 2.32 Executar operações em listas 00:07
      • 2.33 Demo Use Data Structures 04:10
      • 2,34 Mapas 00:46
      • 2.35 Mapas-Operações
      • 2.36 Correspondência de Padrões 00:33
      • 2,37 Implícitos 00:37
      • 2.38 Implícitos (continuação) 00:18
      • 2,39 córregos 00:22
      • 2.40 Use estruturas de dados 00:07
      • 2.41 Demo Perform Operations on Lists 03:25
      • 2,42 Quiz
      • 2.43 Resumo 00:37
      • 2.44 Resumo (continuação) 00:37
      • 2.45 Conclusão 00:15
    • Lição 03 - Usando o RDD para criar aplicativos no Spark 51:02
      • 3.1 Introdução 00:12
      • 3.2 Objetivos 00:23
      • 3.3 API RDDs 01:40
      • 3.4 Recursos dos RDDs
      • 3.5 Criando RDDs 00:36
      • 3.6 Criando RDDs - fazendo referência a um conjunto de dados externo 00:19
      • 3.7 Fazendo referência a um conjunto de dados externo - arquivos de texto 00:51
      • 3.8 Referenciando um Dataset Externo - Arquivos de Texto (cont.) 00:50
      • 3.9 Referenciando um conjunto de dados externo - arquivos de sequência 00:33
      • 3.10 Referenciando um conjunto de dados externo - outros formatos de entrada do Hadoop 00:46
      • 3.11 Criando RDDs - Pontos Importantes 01:09
      • 3.12 Operações de RDD 00:38
      • 3.13 Operações de RDD - Transformações 00:47
      • 3.14 Recursos da persistência do RDD 00:57
      • 3.15 Níveis de armazenamento da persistência do RDD 00:20
      • 3.16 Escolhendo o nível correto de armazenamento de persistência de RDD
      • 3.17 Invocando o Spark Shell 00:23
      • 3.18 Importando Classes Spark 00:14
      • 3.19 Criando o SparkContext 00:26
      • 3.20 Carregando um arquivo no shell 00:11
      • 3.21 Executando algumas operações básicas em arquivos em RDDs do Spark Shell 00:20
      • 3.22 Empacotando um projeto Spark com o SBT 00:50
      • 3.23 Executando um projeto Spark com o SBT 00:32
      • 3.24 Demo-Build a Scala Project 00:07
      • 3.25 Construa um Projeto Scala 06:51
      • 3.26 Demo-Build um projeto Java Spark 00:08
      • 3.27 Construa um projeto Java Spark 04:31
      • 3.28 Variáveis ​​Compartilhadas - Transmissão 01:21
      • 3.29 Variáveis ​​Compartilhadas - Acumuladores 00:52
      • 3.30 Escrevendo um aplicativo Scala 00:20
      • 3.31 Demo-Run a Scala Application 00:07
      • 3.32 Executar um aplicativo Scala 01:43
      • 3.33 Demo-Write de um aplicativo Scala Lendo os dados do Hadoop 00:07
      • 3.34 Escreva um aplicativo Scala Lendo os dados do Hadoop 01:23
      • 3.35 Demo-Execute um aplicativo Scala Lendo os dados do Hadoop 00:08
      • 3.36 Executar um aplicativo Scala Lendo os dados do Hadoop 02:21
      • 3,37 Extensões Scala RDD
      • 3.38 Métodos DoubleRDD 00:08
      • 3.39 Métodos PairRDD - Junte-se 00:47
      • 3.40 Métodos PairRDD - Outros 00:06
      • 3.41 Métodos Java PairRDD 00:09
      • 3.42 Métodos Java PairRDD (continuação) 00:06
      • 3.43 Métodos Gerais de RDD 00:06
      • 3.44 Métodos Gerais de RDD (continuação) 00:05
      • 3.45 Métodos Java RDD 00:08
      • 3.46 Métodos Java RDD (continuação) 00:06
      • 3.47 Métodos comuns de Java RDD 00:10
      • 3.48 Classes de funções Java do Spark 00:13
      • 3.49 Método para Combinar Funções JavaPairRDD 00:42
      • 3.50 Transformações no RDD 00:34
      • 3.51 Outros Métodos 00:07
      • 3.52 Ações no RDD 00:08
      • 3.53 Par de valores-chave RDD em Scala 00:32
      • 3.54 Par de valores-chave RDD em Java 00:43
      • 3.55 Usando o MapReduce e pareando as operações do RDD 00:25
      • 3.56 Lendo o arquivo de texto do HDFS 00:16
      • 3.57 Arquivo de Sequência de Leitura do HDFS 00:21
      • 3.58 Escrevendo dados de texto para o HDFS 00:18
      • 3.59 Gravando arquivo de sequência no HDFS 00:12
      • 3,60 Usando o GroupBy 00:07
      • 3.61 Usando GroupBy (continuação) 00:05
      • 3.62 Demo-Run a Scala Application Executando GroupBy Operation 00:08
      • 3.63 Executar um aplicativo Scala executando a operação GroupBy 03:13
      • 3.64 Demo-Execute um aplicativo Scala usando o Scala Shell 00:07
      • 3.65 Executar um aplicativo Scala usando o Scala Shell 04:02
      • 3.66 Demo-Write e executar um aplicativo Java 00:06
      • 3.67 Escreva e execute um aplicativo Java 01:49
      • 3,68 Questionário
      • Resumo 3.69 00:53
      • Resumo 3.70 (cont.) 00:59
      • 3,71 Conclusão 00:15
    • Lição 04 - Executando Consultas SQL Usando o SQL Spark 30:24
      • 4.1 Introdução 00:12
      • 4.2 Objetivos 00:17
      • 4.3 Importância do SQL Spark 01:02
      • 4.4 Benefícios do SQL Spark 00:47
      • 4.5 DataFrames 00:50
      • 4,6 SQLContext 00:50
      • 4,7 SQLContext (continuação) 01:13
      • 4.8 Criando um DataFrame 00:11
      • 4.9 Usando operações do DataFrame 00:22
      • 4.10 Usando operações DataFrame (continuação) 00:05
      • 4.11 Demo-Run SparkSQL com um Dataframe 00:06
      • 4.12 Execute o SparkSQL com um Dataframe 08:53
      • 4.13 Interoperando com RDDs
      • 4.14 Usando a abordagem baseada em reflexão 00:38
      • 4.15 Usando a abordagem baseada em reflexão (continuação) 00:08
      • 4.16 Usando a abordagem programática 00:44
      • 4.17 Usando a abordagem programática (continuação) 00:07
      • 4.18 Demo-Run Spark SQL Programaticamente 00:08
      • 4.19 Executar o Spark SQL por meio de programação 00:01
      • 4.20 Fontes de dados
      • 4.21 Salvar modos 00:32
      • 4.22 Salvando em Tabelas Persistentes 00:46
      • 4.23 Arquivos de Parquet 00:19
      • 4.24 Descoberta de Partições 00:38
      • 4.25 Mesclagem de Esquema 00:29
      • 4.26 Dados JSON 00:34
      • Tabela 4.27 Hive 00:45
      • 4.28 Consultas de operação do DML 00:27
      • 4.29 Consultas do Hive de execução demográfica usando o SQL de ignição 00:07
      • 4.30 Executar consultas do Hive usando o SQL de ignição 04:58
      • 4,31 JDBC para outros bancos de dados 00:49
      • 4.32 Recursos de Hive Suportados 00:38
      • 4.33 Recursos de Hive Suportados (cont.) 00:22
      • 4.34 Tipos de dados suportados da seção 00:13
      • 4.35 Classes de casos 00:15
      • 4.36 Classes de casos (continuação) 00:07
      • 4,37 Questionário
      • 4.38 Resumo 00:49
      • Resumo 4.39 (cont.) 00:49
      • 4,40 Conclusão 00:13
    • Lição 05 - Spark Streaming 35:09
      • 5.1 Introdução 00:11
      • 5.2 Objetivos 00:15
      • 5.3 Introdução ao Spark Streaming 00:50
      • 5.4 Trabalho do Spark Streaming 00:20
      • 5.5 Recursos do Spark Streaming
      • 5.6 Streaming Word Count 01:34
      • 5,7 Micro Lote 00:19
      • 5,8 DStreams 00:34
      • 5,9 DStreams (continuação) 00:39
      • 5.10 Input DStreams e Receptores 01:19
      • 5.11 Input DStreams and Receivers (continuação) 00:55
      • 5.12 Fontes Básicas 01:14
      • 5.13 Fontes Avançadas 00:49
      • 5.14 Fontes Avançadas-Twitter
      • 5.15 Transformações em DStreams 00:15
      • 5.16 Transformações em Dstreams (cont.) 00:06
      • 5.17 Operações de Saída em DStreams 00:29
      • 5.18 Padrões de Design para Uso do ForeachRDD 01:15
      • 5.19 DataFrame e Operações SQL 00:26
      • 5.20 DataFrame e Operações SQL (cont.) 00:20
      • 5.21 Ponto de Verificação 01:25
      • 5.22 Habilitando o Checkpointing 00:39
      • 5.23 Socket Stream 01:00
      • 5.24 Stream de Arquivos 00:12
      • 5.25 Operações com estado 00:28
      • 5.26 Operações da Janela 01:22
      • 5.27 Tipos de Operações da Janela 00:12
      • 5.28 Tipos de Tipos de Operações de Janelas (continuação) 00:06
      • 5.29 Junções de Junção de Conjuntos de Dados de Operações de Junção 00:21
      • 5.30 Junção de operações-fluxo-junção 00:34
      • 5.31 Monitorando o aplicativo Spark Streaming 01:19
      • 5.32 Ajuste de Desempenho - Nível Alto 00:20
      • 5.33 Desempenho Sintonia-Nível de detalhe
      • 5.34 Demo-Capture e processe os dados do Netcat 00:07
      • 5.35 Capture e processe os dados do Netcat 05:01
      • 5.36 Demo-Capture e processe os dados do Flume 00:08
      • 5.37 Capture e processe os dados do Flume 05:08
      • 5.38 Demo-capture os dados do Twitter 00:07
      • 5.39 Capture os dados do Twitter 02:33
      • 5,40 Quiz
      • Resumo 5.41 01:01
      • Resumo 5.42 (cont.) 01:04
      • 5,43 Conclusão 00:12
    • Lição 06 - Programação Spark ML 40:08
      • 6.1 Introdução 00:12
      • 6.2 Objetivos 00:20
      • 6.3 Introdução ao Aprendizado de Máquina 01:36
      • 6.4 Terminologias Comuns em Aprendizado de Máquina
      • 6.5 Aplicações de Aprendizado de Máquina 00:22
      • 6.6 Aprendizado de Máquina no Spark 00:34
      • 6.7 API do Spark ML
      • 6.8 DataFrames 00:32
      • 6.9 Transformadores e Estimadores 00:59
      • 6,10 Pipeline 00:48
      • 6.11 Trabalhando de um Pipeline 01:41
      • 6.12 Trabalhando de um Pipeline (continuação) 00:45
      • 6,13 DIA Pipelines 00:33
      • 6.14 Verificação de tempo de execução 00:21
      • 6.15 Passagem de Parâmetros 01:00
      • 6.16 Pipeline de Aprendizado de Máquina Geral - Exemplo 00:05
      • 6.17 Exemplo de Pipeline de Aprendizado de Máquina Geral (cont.)
      • 6.18 Seleção de Modelo via Validação Cruzada 01:16
      • 6.19 Tipos, Algoritmos e Utilitários Suportados 00:31
      • 6.20 Tipos de dados 01:26
      • 6.21 Extração de recursos e estatísticas básicas 00:43
      • 6.22 Clustering 00:38
      • 6,23 K-Meios 00:55
      • 6,24 K-médias (cont.) 00:05
      • 6.25 Demo-Perform Clustering Usando K-Means 00:07
      • 6.26 Realizar agrupamentos usando K-médias 04:41
      • 6,27 Mistura gaussiana 00:57
      • 6.28 Clusterização de Iteração de Energia (PIC) 01:17
      • 6.29 Alocação de Dirichlet Latente (LDA) 00:35
      • 6.30 Alocação de Dirichlet Latente (LDA) (continuação) 01:45
      • 6.31 Filtragem Colaborativa 01:13
      • 6.32 Classificação 00:16
      • 6.33 Classificação (continuação) 00:06
      • 6.34 Regressão 00:42
      • 6.35 Exemplo de Regressão 00:56
      • 6.36 Classificação Demo-Perform Usando Regressão Linear 00:08
      • 6.37 Realizar Classificação Usando Regressão Linear 02:01
      • 6.38 Regressão linear de demonstração 00:06
      • 6.39 Executar Regressão Linear 02:14
      • 6.40 Recomendação de demonstração de desempenho usando filtragem colaborativa 00:05
      • 6.41 Executar recomendação usando o filtro colaborativo 02:23
      • 6.42 Sistema de recomendação de demonstração 00:06
      • 6.43 Executar sistema de recomendação 02:45
      • 6,44 Quiz
      • Resumo 01:14
      • Resumo 6.46 (continuação) 00:57
      • 6,47 Conclusão 00:12
    • Lição 07 - Spark GraphX ​​Programming 46:26
      • 7.001 Introdução 00:14
      • 7.002 Objetivos 00:17
      • 7.003 Introdução ao Sistema Gráfico-Paralelo 01:14
      • 7.004 Limitações do Sistema Gráfico-Paralelo 00:49
      • 7.005 Introdução ao GraphX 01:21
      • 7.006 Introdução ao GraphX ​​(continuação) 00:06
      • 7.007 Importando o GraphX 00:10
      • 7.008 O Gráfico Da Propriedade 01:25
      • 7.009 O Gráfico da Propriedade (continuação) 00:07
      • 7.010 Recursos do gráfico de propriedades
      • 7.011 Criando um gráfico 00:14
      • 7.012 Demo - criar um gráfico usando o GraphX 00:07
      • 7.013 Criar um gráfico usando o GraphX 10:08
      • Vista de tripla 7.014 00:30
      • 7.015 Operadores Gráficos 00:51
      • 7.016 Lista de operadores 00:23
      • 7.017 Lista de operadores (continuação) 00:05
      • 7.018 Operadores de Propriedade 00:18
      • 7.019 Operadores Estruturais 01:02
      • 7.020 subgrafos 00:21
      • 7.021 Operadores de junção 01:09
      • 7.022 Demo-Perform Graph Operations Usando GraphX 00:07
      • 7.023 Execução de operações de gráfico usando o GraphX 05:46
      • 7.024 Demo-Perform Subgraph Operations 00:07
      • 7.025 Executar operações de subgrafia 01:37
      • 7.026 Agregação de Bairro 00:43
      • 7.027 mapReduceTriplets 00:42
      • 7.028 Demo-Perform MapReduce Operations 00:08
      • 7.029 Executar operações MapReduce 09:18
      • 7.030 Grau de contagem de vértice 00:32
      • 7.031 Coletando Vizinhos 00:28
      • 7.032 cache e uncaching 01:10
      • 7.033 Construtores de Gráfico
      • 7.034 RDDs de vértice e de borda 01:17
      • 7.035 Otimizações do sistema gráfico 01:22
      • 7.036 Algoritmos Internos
      • 7.037 Questionário
      • 7.038 Resumo 01:12
      • 7.039 Resumo (continuação) 00:55
      • 7.040 Conclusão 00:11
    • {{childObj.title}}
      • {{childObj.childSection.chapter_name}}
        • {{lesson.title}}
      • {{lesson.title}}

    View More

    View Less

Exame e certificação

  • Como me torno um profissional certificado do Apache Spark e Scala?

    Para se tornar um profissional certificado pelo Apache Spark e pelo Scala, é obrigatório cumprir os dois critérios a seguir:
    • Você deve concluir um projeto dado pela Simplilearn que é avaliado pelo instrutor líder. Seu projeto pode ser submetido através do sistema de gerenciamento de aprendizado (LMS). Se você tiver dúvidas ou dificuldades enquanto estiver trabalhando no projeto, você pode obter assistência e esclarecimentos de nossos especialistas no SimpliTalk . Se você tiver mais problemas, consulte nosso Treinamento em sala de aula on-line, onde poderá assistir a qualquer um dos lotes contínuos das aulas de Treinamento de Certificação Apache Spark e Scala para obter ajuda com seu projeto.
    • É necessária uma pontuação mínima de 80% para passar no exame on-line. Se você não passar no exame on-line na primeira tentativa, poderá refazer o exame uma vez.
    • No final do curso Scala, você receberá um certificado de experiência informando que tem três meses de experiência na implementação do Spark e do Scala.

  • Quais são os pré-requisitos para o curso Scala?

    Os pré-requisitos para o curso Apache Spark e Scala são:
    • Conhecimento fundamental de qualquer linguagem de programação
    • Compreensão básica de qualquer banco de dados, SQL e linguagem de consulta para bancos de dados
    • Conhecimento prático de sistemas baseados em Linux ou Unix (não obrigatório)
    • Treinamento de certificação como um desenvolvedor de Big Data Hadoop (recomendado)

  • O que preciso fazer para desbloquear meu certificado Simplilearn?

    Sala de aula on-line:
    • Participe de um lote completo
    • Conclua um projeto e um teste de simulação com uma pontuação mínima de 60%
    Auto-aprendizagem online:
    • Complete 85% do curso
    • Conclua um projeto e um teste de simulação com uma pontuação mínima de 60%

Rever

Peter Dao
Peter Dao Senior Technical Analyst at Sutter Health

O instrutor é muito experiente nesses tópicos. Eu gosto dos exemplos dados nas aulas.

Amit Pradhan
Amit Pradhan Assistant Manager at HT Media

Foi realmente uma ótima experiência de aprendizado. O curso Big Data tem sido fundamental para estabelecer as bases para os iniciantes, tanto em termos de conteúdo conceitual quanto no laboratório prático. Graças a equipe Simplilearn que não era menos do que uma sala de aula ao vivo .. Realmente aprecio ..

Read more Read less
Aravinda Reddy
Aravinda Reddy Lead Software Engineer at Thomson Reuters

O treinamento foi muito bom. O treinador estava certo na agenda segmentada com grandes habilidades técnicas. Ele cobriu todos os tópicos com bom número de exemplos e nos permitiu fazer hands-on também.

Read more Read less
Martin Stufi
Martin Stufi C.E.O - Solutia, s.r.o.

Ótimo curso! Eu realmente recomendo!

Anjaneya Prasad Nidubrolu
Anjaneya Prasad Nidubrolu Assistant Consultant at Tata Consultancy Services

Curso bem estruturado e o instrutor é muito bom. Ele tem um bom controle sobre o assunto e elimina nossas dúvidas instantaneamente e garante que todos os alunos entendam as coisas corretamente.

Read more Read less
Olga Barrett
Olga Barrett Career Advisor @ CV Wizard of OZ

Ótima Classe Muito interativo. A visão geral do HDFS e MapReduce foi muito útil, foi uma transição suave para o conhecimento do Apache Spark e Scala. O conteúdo é bom. No geral, excelente treinamento.

Read more Read less
Nagarjuna D N
Nagarjuna D N AT&T

Obtendo um treinamento de alta qualidade de especialistas do setor a sua conveniência, acessível com os recursos que você precisa para dominar o que você está aprendendo.

Read more Read less
Vinod JV
Vinod JV Lead Software Engineer at Thomson Reuters

O treinador tem um excelente conhecimento sobre o assunto e é muito minucioso em responder as dúvidas. Espero que o Simplilearn continue sempre a dar formadores como este.

Read more Read less
Arijit Chatterjee
Arijit Chatterjee Senior Consultant at Capgemini

Foi realmente uma experiência maravilhosa ter essa discussão de projeto em tempo real durante a sessão de treinamento. Ajudou a aprender em profundidade.

Read more Read less

Orientador do curso

Ronald van Loon
Ronald van Loon Top 10 Big Data & Data Science Influencer, Director - Adversitement

Nomeado pela Onalytica como uma das três pessoas mais influentes em Big Data, Ronald também é autor de vários sites líderes em Big Data e Data Science, incluindo Datafloq, Data Science Central e The Guardian. Ele também fala regularmente em eventos de renome.

FAQs

  • Quais são os requisitos do sistema para fazer este curso?

    Seu sistema deve atender aos seguintes requisitos:
    • Sistema Operacional de 64 bits
    • 8 GB de RAM

  • Como os laboratórios serão conduzidos?

    Ajudaremos você a configurar uma máquina virtual com acesso local. O guia de instalação detalhado é fornecido no LMS.

  • Como o projeto é concluído e como obter a certificação?

    Tudo o que você precisa para concluir seu projeto, como declarações de problemas e pontos de dados, é fornecido para você no LMS. Se você tiver outras dúvidas, entre em contato conosco.

    Depois de concluir o curso do Scala, você enviará o projeto final ao instrutor para avaliação. Após a avaliação bem sucedida do projeto e conclusão do exame on-line, você será certificado como Spark e Scala Professional.

  • Quem são os instrutores / treinadores e como eles são selecionados?

    Todos os nossos instrutores altamente qualificados são certificados pelo Apache Spark e Scala, com mais de 15 anos de experiência em treinamento e trabalho profissional no campo. Cada um deles passou por um processo de seleção rigoroso que inclui triagem de perfil, avaliação técnica e demonstração de treinamento ao vivo antes de serem certificados para treinarem para nós. Também garantimos que apenas os treinadores que mantenham uma alta classificação de ex-alunos continuem a treinar para nós.

  • Quais são os modos de treinamento oferecidos para este curso de Treinamento Scala?

    Oferecemos dois modos de treinamento:

    Sala de aula virtual ao vivo ou sala de aula on-line: com o treinamento on-line em sala de aula ministrado pelo instrutor, você tem a opção de participar do curso remotamente do seu computador ou laptop por meio de videoconferência. Este formato melhora a produtividade e diminui o tempo gasto fora do trabalho ou em casa.

    Auto-Aprendizagem On-line: Neste modo, você receberá vídeos de palestras que podem ser revisados ​​no seu próprio ritmo.

  • E se eu perder uma aula?

    Nós fornecemos gravações da classe após a sessão ser realizada, para que você possa acompanhar o treinamento antes da próxima sessão.

  • Posso cancelar minha inscrição? Eu recebo um reembolso?

    Sim, você pode cancelar sua inscrição. Nós fornecemos um reembolso completo após deduzir a taxa de administração. Para saber mais, acesse através do nosso R Política efund .

  • Como me inscrevo para o treinamento online?

    Você pode se inscrever para este treinamento Scala em nosso site e fazer um pagamento online usando qualquer uma das seguintes opções:
    • Crédito Visa ou Cartão de Débito
    • MasterCard
    • Expresso americano
    • Diner's Club
    • PayPal
    Uma vez recebido o pagamento, você receberá automaticamente um recibo de pagamento e informações de acesso via e-mail.

  • Eu gostaria de aprender mais sobre este programa de treinamento. Com quem devo entrar em contato?

    Entre em contato conosco usando o formulário à direita de qualquer página no site da Simplilearn ou selecione o link Live Chat. Nossos representantes de atendimento ao cliente podem fornecer mais detalhes.

  • O que é Assistência Global de Ensino?

    Nossos assistentes de ensino são uma equipe dedicada de especialistas no assunto para ajudá-lo a obter a certificação em sua primeira tentativa. Eles envolvem os alunos de forma proativa para garantir que o caminho do curso esteja sendo seguido e ajudar você a enriquecer sua experiência de aprendizado, desde o ingresso na aula até a orientação do projeto e assistência de trabalho. A Assistência de Ensino está disponível durante o horário comercial.

  • O que é coberto pela promessa do Suporte 24/7?

    Oferecemos suporte 24/7 através de email, chat e chamadas. Também temos uma equipe dedicada que fornece assistência sob demanda através do nosso fórum da comunidade. Além disso, você terá acesso vitalício ao fórum da comunidade, mesmo após a conclusão do seu curso conosco.

    • Disclaimer
    • PMP, PMI, PMBOK, CAPM, PgMP, PfMP, ACP, PBA, RMP, SP, and OPM3 are registered marks of the Project Management Institute, Inc.