Descrição do Curso

  • Por que aprender o Apache Spark e o Scala?

  • Quais são os objetivos do curso?

    Os treinamentos de certificação Apache Spark e Scala da Simplilearn são projetados para:
    • Avance seus conhecimentos no ecossistema Big Data Hadoop
    • Ajude você a dominar as habilidades essenciais do Apache e do Spark, como Spark Streaming, Spark SQL, programação de aprendizado de máquina, programação GraphX ​​e Shell Scripting Spark.
    • Ajudá-lo a conseguir um trabalho de desenvolvedor do Hadoop exigindo a experiência do Apache Spark, oferecendo a você um projeto real da indústria, juntamente com 30 demonstrações

  • Quais habilidades você aprenderá?

    Ao concluir este curso Apache Spark e Scala, você será capaz de:
    • Entenda as limitações do MapReduce e o papel do Spark em superar essas limitações
    • Entenda os fundamentos da linguagem de programação Scala e seus recursos
    • Explicar e dominar o processo de instalação do Spark como um cluster independente
    • Desenvolver experiência no uso de conjuntos de dados distribuídos resilientes (RDD) para criar aplicativos no Spark
    • Linguagem de Consulta Estruturada Mestre (SQL) usando o SparkSQL
    • Obtenha uma compreensão completa dos recursos de streaming do Spark
    • Domine e descreva os recursos da programação do Spark ML e da programação GraphX

  • Quem deve fazer este curso de Scala?

    • Profissionais que aspiram a uma carreira no campo da análise de big data em tempo real
    • Profissionais de análise
    • Profissionais de pesquisa
    • Desenvolvedores e testadores de TI
    • Cientistas de dados
    • Profissionais de BI e relatórios
    • Alunos que desejam obter uma compreensão completa do Apache Spark

  • Quais projetos estão incluídos neste curso de treinamento Spark?

    Este curso de treinamento Apache Spark e Scala tem um projeto. Neste cenário de projeto, uma universidade baseada nos EUA coletou conjuntos de dados que representam revisões de filmes de vários revisores. Para obter insights aprofundados dos dados de pesquisa coletados, você deve executar uma série de tarefas no Spark no conjunto de dados fornecido.

Prévia do curso

    • Lição 00 - Visão Geral do Curso 04:12
      • 0.1 Introdução00:13
      • 0.2 Objetivos do Curso00:28
      • 0.3 Visão geral do curso00:38
      • 0,4 Público Alvo00:31
      • 0.5 Pré-requisitos do curso00:21
      • 0,6 Valor para os Profissionais00:48
      • 0,7 Valor para os profissionais (cont.)00:20
      • 0,8 Valor para os Profissionais (continuação)00:21
      • 0.9 lições cobertas00:24
      • 0.10 Conclusão00:08
    • Lição 01 - Introdução ao Spark 25:34
      • 1.1 Introdução00:15
      • 1.2 Objetivos00:26
      • 1.3 Evolução de Sistemas Distribuídos
      • 1.4 Necessidade de Sistemas Distribuídos de Nova Geração01:15
      • 1.5 Limitações do MapReduce no Hadoop01:06
      • 1.6 Limitações do MapReduce no Hadoop (continuação)01:07
      • 1.7 Processamento em lote versus processamento em tempo real01:09
      • 1.8 Aplicação do Processamento de Fluxo00:07
      • 1.9 Aplicação do processamento na memória01:48
      • 1.10 Introdução ao Apache Spark00:45
      • 1.11 Componentes de um projeto Spark
      • 1.12 História da centelha00:50
      • 1.13 Flexibilidade de Linguagem no Spark00:55
      • 1.14 Arquitetura Spark Execution01:13
      • 1.15 Paralelização Automática de Fluxos Complexos00:59
      • 1.16 Paralelização Automática de Fluxos Complexos - Pontos Importantes01:13
      • 1.17 APIs que correspondem aos objetivos do usuário01:06
      • 1.18 Apache Spark-A Plataforma Unificada de Aplicativos de Big Data01:38
      • 1.19 Mais benefícios do Apache Spark01:05
      • 1.20 Correndo Spark em diferentes modos00:41
      • 1.21 Instalando o Spark como um cluster autônomo - configurações
      • 1.22 Instalando o Spark como um cluster autônomo - configurações00:08
      • 1.23 Demo-Install Apache Spark00:08
      • 1.24 Demo-Install Apache Spark02:41
      • 1.25 Visão geral do Spark em um cluster00:47
      • 1.26 Tarefas do Spark em um cluster00:37
      • 1.27 Empresas Usando Casos de Uso do Spark00:46
      • 1.28 Ecossistema do Hadoop vs. Apache Spark00:32
      • 1.29 Ecossistema Hadoop vs. Apache Spark (continuação)00:43
      • 1,30 quiz
      • 1.31 Resumo00:40
      • 1.32 Resumo (continuação)00:41
      • 1.33 Conclusão00:13
    • Lição 02 - Introdução à Programação no Scala 37:35
      • 2.1 Introdução00:11
      • 2.2 Objetivos00:16
      • 2.3 Introdução ao Scala01:32
      • 2.4 Recursos do Scala
      • 2.5 Tipos Básicos de Dados00:24
      • 2.6 Literais Básicos00:35
      • 2.7 Literais Básicos (cont.)00:25
      • 2.8 Literais Básicos (cont.)00:21
      • 2.9 Introdução aos Operadores00:31
      • 2.10 Tipos de Operadores
      • 2.11 Use Literais Básicos e o Operador Aritmético00:08
      • 2.12 Demo Use os Literais Básicos e o Operador Aritmético03:18
      • 2.13 Use o operador lógico00:07
      • 2.14 Demo Use o operador lógico01:40
      • 2.15 Introdução à inferência de tipos00:34
      • 2.16 Inferência de Tipo para Métodos Recursivos00:10
      • 2.17 Inferência de Tipos para Métodos Polimórficos e Classes Genéricas00:30
      • 2.18 Falta de confiabilidade no mecanismo de inferência de tipo00:23
      • 2.19 Coleção Mutável vs. Coleção Imutável01:13
      • 2.20 Funções00:21
      • 2.21 Funções Anônimas00:22
      • 2.22 Objetos01:08
      • 2,23 aulas00:36
      • 2.24 Usar inferência de tipos, funções, função anônima e classe00:09
      • 2.25 Demo Uso Inferência de Tipo, Funções, Função Anônima e Classe07:40
      • 2.26 Traços como Interfaces00:57
      • 2,27 traços-exemplo00:09
      • 2.28 Coleções00:42
      • 2.29 Tipos de coleções00:25
      • 2.30 Tipos de coleções (continuação)00:26
      • 2,31 Listas00:28
      • 2.32 Executar operações em listas00:07
      • 2.33 Demo Use Data Structures04:10
      • 2,34 Mapas00:46
      • 2.35 Mapas-Operações
      • 2.36 Correspondência de Padrões00:33
      • 2,37 Implícitos00:37
      • 2.38 Implícitos (continuação)00:18
      • 2,39 córregos00:22
      • 2.40 Use estruturas de dados00:07
      • 2.41 Demo Perform Operations on Lists03:25
      • 2,42 Quiz
      • 2.43 Resumo00:37
      • 2.44 Resumo (continuação)00:37
      • 2.45 Conclusão00:15
    • Lição 03 - Usando o RDD para criar aplicativos no Spark 51:02
      • 3.1 Introdução00:12
      • 3.2 Objetivos00:23
      • 3.3 API RDDs01:40
      • 3.4 Recursos dos RDDs
      • 3.5 Criando RDDs00:36
      • 3.6 Criando RDDs - fazendo referência a um conjunto de dados externo00:19
      • 3.7 Fazendo referência a um conjunto de dados externo - arquivos de texto00:51
      • 3.8 Referenciando um Dataset Externo - Arquivos de Texto (cont.)00:50
      • 3.9 Referenciando um conjunto de dados externo - arquivos de sequência00:33
      • 3.10 Referenciando um conjunto de dados externo - outros formatos de entrada do Hadoop00:46
      • 3.11 Criando RDDs - Pontos Importantes01:09
      • 3.12 Operações de RDD00:38
      • 3.13 Operações de RDD - Transformações00:47
      • 3.14 Recursos da persistência do RDD00:57
      • 3.15 Níveis de armazenamento da persistência do RDD00:20
      • 3.16 Escolhendo o nível correto de armazenamento de persistência de RDD
      • 3.17 Invocando o Spark Shell00:23
      • 3.18 Importando Classes Spark00:14
      • 3.19 Criando o SparkContext00:26
      • 3.20 Carregando um arquivo no shell00:11
      • 3.21 Executando algumas operações básicas em arquivos em RDDs do Spark Shell00:20
      • 3.22 Empacotando um projeto Spark com o SBT00:50
      • 3.23 Executando um projeto Spark com o SBT00:32
      • 3.24 Demo-Build a Scala Project00:07
      • 3.25 Construa um Projeto Scala06:51
      • 3.26 Demo-Build um projeto Java Spark00:08
      • 3.27 Construa um projeto Java Spark04:31
      • 3.28 Variáveis ​​Compartilhadas - Transmissão01:21
      • 3.29 Variáveis ​​Compartilhadas - Acumuladores00:52
      • 3.30 Escrevendo um aplicativo Scala00:20
      • 3.31 Demo-Run a Scala Application00:07
      • 3.32 Executar um aplicativo Scala01:43
      • 3.33 Demo-Write de um aplicativo Scala Lendo os dados do Hadoop00:07
      • 3.34 Escreva um aplicativo Scala Lendo os dados do Hadoop01:23
      • 3.35 Demo-Execute um aplicativo Scala Lendo os dados do Hadoop00:08
      • 3.36 Executar um aplicativo Scala Lendo os dados do Hadoop02:21
      • 3,37 Extensões Scala RDD
      • 3.38 Métodos DoubleRDD00:08
      • 3.39 Métodos PairRDD - Junte-se00:47
      • 3.40 Métodos PairRDD - Outros00:06
      • 3.41 Métodos Java PairRDD00:09
      • 3.42 Métodos Java PairRDD (continuação)00:06
      • 3.43 Métodos Gerais de RDD00:06
      • 3.44 Métodos Gerais de RDD (continuação)00:05
      • 3.45 Métodos Java RDD00:08
      • 3.46 Métodos Java RDD (continuação)00:06
      • 3.47 Métodos comuns de Java RDD00:10
      • 3.48 Classes de funções Java do Spark00:13
      • 3.49 Método para Combinar Funções JavaPairRDD00:42
      • 3.50 Transformações no RDD00:34
      • 3.51 Outros Métodos00:07
      • 3.52 Ações no RDD00:08
      • 3.53 Par de valores-chave RDD em Scala00:32
      • 3.54 Par de valores-chave RDD em Java00:43
      • 3.55 Usando o MapReduce e pareando as operações do RDD00:25
      • 3.56 Lendo o arquivo de texto do HDFS00:16
      • 3.57 Arquivo de Sequência de Leitura do HDFS00:21
      • 3.58 Escrevendo dados de texto para o HDFS00:18
      • 3.59 Gravando arquivo de sequência no HDFS00:12
      • 3,60 Usando o GroupBy00:07
      • 3.61 Usando GroupBy (continuação)00:05
      • 3.62 Demo-Run a Scala Application Executando GroupBy Operation00:08
      • 3.63 Executar um aplicativo Scala executando a operação GroupBy03:13
      • 3.64 Demo-Execute um aplicativo Scala usando o Scala Shell00:07
      • 3.65 Executar um aplicativo Scala usando o Scala Shell04:02
      • 3.66 Demo-Write e executar um aplicativo Java00:06
      • 3.67 Escreva e execute um aplicativo Java01:49
      • 3,68 Questionário
      • Resumo 3.6900:53
      • Resumo 3.70 (cont.)00:59
      • 3,71 Conclusão00:15
    • Lição 04 - Executando Consultas SQL Usando o SQL Spark 30:24
      • 4.1 Introdução00:12
      • 4.2 Objetivos00:17
      • 4.3 Importância do SQL Spark01:02
      • 4.4 Benefícios do SQL Spark00:47
      • 4.5 DataFrames00:50
      • 4,6 SQLContext00:50
      • 4,7 SQLContext (continuação)01:13
      • 4.8 Criando um DataFrame00:11
      • 4.9 Usando operações do DataFrame00:22
      • 4.10 Usando operações DataFrame (continuação)00:05
      • 4.11 Demo-Run SparkSQL com um Dataframe00:06
      • 4.12 Execute o SparkSQL com um Dataframe08:53
      • 4.13 Interoperando com RDDs
      • 4.14 Usando a abordagem baseada em reflexão00:38
      • 4.15 Usando a abordagem baseada em reflexão (continuação)00:08
      • 4.16 Usando a abordagem programática00:44
      • 4.17 Usando a abordagem programática (continuação)00:07
      • 4.18 Demo-Run Spark SQL Programaticamente00:08
      • 4.19 Executar o Spark SQL por meio de programação00:01
      • 4.20 Fontes de dados
      • 4.21 Salvar modos00:32
      • 4.22 Salvando em Tabelas Persistentes00:46
      • 4.23 Arquivos de Parquet00:19
      • 4.24 Descoberta de Partições00:38
      • 4.25 Mesclagem de Esquema00:29
      • 4.26 Dados JSON00:34
      • Tabela 4.27 Hive00:45
      • 4.28 Consultas de operação do DML00:27
      • 4.29 Consultas do Hive de execução demográfica usando o SQL de ignição00:07
      • 4.30 Executar consultas do Hive usando o SQL de ignição04:58
      • 4,31 JDBC para outros bancos de dados00:49
      • 4.32 Recursos de Hive Suportados00:38
      • 4.33 Recursos de Hive Suportados (cont.)00:22
      • 4.34 Tipos de dados suportados da seção00:13
      • 4.35 Classes de casos00:15
      • 4.36 Classes de casos (continuação)00:07
      • 4,37 Questionário
      • 4.38 Resumo00:49
      • Resumo 4.39 (cont.)00:49
      • 4,40 Conclusão00:13
    • Lição 05 - Spark Streaming 35:09
      • 5.1 Introdução00:11
      • 5.2 Objetivos00:15
      • 5.3 Introdução ao Spark Streaming00:50
      • 5.4 Trabalho do Spark Streaming00:20
      • 5.5 Recursos do Spark Streaming
      • 5.6 Streaming Word Count01:34
      • 5,7 Micro Lote00:19
      • 5,8 DStreams00:34
      • 5,9 DStreams (continuação)00:39
      • 5.10 Input DStreams e Receptores01:19
      • 5.11 Input DStreams and Receivers (continuação)00:55
      • 5.12 Fontes Básicas01:14
      • 5.13 Fontes Avançadas00:49
      • 5.14 Fontes Avançadas-Twitter
      • 5.15 Transformações em DStreams00:15
      • 5.16 Transformações em Dstreams (cont.)00:06
      • 5.17 Operações de Saída em DStreams00:29
      • 5.18 Padrões de Design para Uso do ForeachRDD01:15
      • 5.19 DataFrame e Operações SQL00:26
      • 5.20 DataFrame e Operações SQL (cont.)00:20
      • 5.21 Ponto de Verificação01:25
      • 5.22 Habilitando o Checkpointing00:39
      • 5.23 Socket Stream01:00
      • 5.24 Stream de Arquivos00:12
      • 5.25 Operações com estado00:28
      • 5.26 Operações da Janela01:22
      • 5.27 Tipos de Operações da Janela00:12
      • 5.28 Tipos de Tipos de Operações de Janelas (continuação)00:06
      • 5.29 Junções de Junção de Conjuntos de Dados de Operações de Junção00:21
      • 5.30 Junção de operações-fluxo-junção00:34
      • 5.31 Monitorando o aplicativo Spark Streaming01:19
      • 5.32 Ajuste de Desempenho - Nível Alto00:20
      • 5.33 Desempenho Sintonia-Nível de detalhe
      • 5.34 Demo-Capture e processe os dados do Netcat00:07
      • 5.35 Capture e processe os dados do Netcat05:01
      • 5.36 Demo-Capture e processe os dados do Flume00:08
      • 5.37 Capture e processe os dados do Flume05:08
      • 5.38 Demo-capture os dados do Twitter00:07
      • 5.39 Capture os dados do Twitter02:33
      • 5,40 Quiz
      • Resumo 5.4101:01
      • Resumo 5.42 (cont.)01:04
      • 5,43 Conclusão00:12
    • Lição 06 - Programação Spark ML 40:08
      • 6.1 Introdução00:12
      • 6.2 Objetivos00:20
      • 6.3 Introdução ao Aprendizado de Máquina01:36
      • 6.4 Terminologias Comuns em Aprendizado de Máquina
      • 6.5 Aplicações de Aprendizado de Máquina00:22
      • 6.6 Aprendizado de Máquina no Spark00:34
      • 6.7 API do Spark ML
      • 6.8 DataFrames00:32
      • 6.9 Transformadores e Estimadores00:59
      • 6,10 Pipeline00:48
      • 6.11 Trabalhando de um Pipeline01:41
      • 6.12 Trabalhando de um Pipeline (continuação)00:45
      • 6,13 DIA Pipelines00:33
      • 6.14 Verificação de tempo de execução00:21
      • 6.15 Passagem de Parâmetros01:00
      • 6.16 Pipeline de Aprendizado de Máquina Geral - Exemplo00:05
      • 6.17 Exemplo de Pipeline de Aprendizado de Máquina Geral (cont.)
      • 6.18 Seleção de Modelo via Validação Cruzada01:16
      • 6.19 Tipos, Algoritmos e Utilitários Suportados00:31
      • 6.20 Tipos de dados01:26
      • 6.21 Extração de recursos e estatísticas básicas00:43
      • 6.22 Clustering00:38
      • 6,23 K-Meios00:55
      • 6,24 K-médias (cont.)00:05
      • 6.25 Demo-Perform Clustering Usando K-Means00:07
      • 6.26 Realizar agrupamentos usando K-médias04:41
      • 6,27 Mistura gaussiana00:57
      • 6.28 Clusterização de Iteração de Energia (PIC)01:17
      • 6.29 Alocação de Dirichlet Latente (LDA)00:35
      • 6.30 Alocação de Dirichlet Latente (LDA) (continuação)01:45
      • 6.31 Filtragem Colaborativa01:13
      • 6.32 Classificação00:16
      • 6.33 Classificação (continuação)00:06
      • 6.34 Regressão00:42
      • 6.35 Exemplo de Regressão00:56
      • 6.36 Classificação Demo-Perform Usando Regressão Linear00:08
      • 6.37 Realizar Classificação Usando Regressão Linear02:01
      • 6.38 Regressão linear de demonstração00:06
      • 6.39 Executar Regressão Linear02:14
      • 6.40 Recomendação de demonstração de desempenho usando filtragem colaborativa00:05
      • 6.41 Executar recomendação usando o filtro colaborativo02:23
      • 6.42 Sistema de recomendação de demonstração00:06
      • 6.43 Executar sistema de recomendação02:45
      • 6,44 Quiz
      • Resumo01:14
      • Resumo 6.46 (continuação)00:57
      • 6,47 Conclusão00:12
    • Lição 07 - Spark GraphX ​​Programming 46:26
      • 7.001 Introdução00:14
      • 7.002 Objetivos00:17
      • 7.003 Introdução ao Sistema Gráfico-Paralelo01:14
      • 7.004 Limitações do Sistema Gráfico-Paralelo00:49
      • 7.005 Introdução ao GraphX01:21
      • 7.006 Introdução ao GraphX ​​(continuação)00:06
      • 7.007 Importando o GraphX00:10
      • 7.008 O Gráfico Da Propriedade01:25
      • 7.009 O Gráfico da Propriedade (continuação)00:07
      • 7.010 Recursos do gráfico de propriedades
      • 7.011 Criando um gráfico00:14
      • 7.012 Demo - criar um gráfico usando o GraphX00:07
      • 7.013 Criar um gráfico usando o GraphX10:08
      • Vista de tripla 7.01400:30
      • 7.015 Operadores Gráficos00:51
      • 7.016 Lista de operadores00:23
      • 7.017 Lista de operadores (continuação)00:05
      • 7.018 Operadores de Propriedade00:18
      • 7.019 Operadores Estruturais01:02
      • 7.020 subgrafos00:21
      • 7.021 Operadores de junção01:09
      • 7.022 Demo-Perform Graph Operations Usando GraphX00:07
      • 7.023 Execução de operações de gráfico usando o GraphX05:46
      • 7.024 Demo-Perform Subgraph Operations00:07
      • 7.025 Executar operações de subgrafia01:37
      • 7.026 Agregação de Bairro00:43
      • 7.027 mapReduceTriplets00:42
      • 7.028 Demo-Perform MapReduce Operations00:08
      • 7.029 Executar operações MapReduce09:18
      • 7.030 Grau de contagem de vértice00:32
      • 7.031 Coletando Vizinhos00:28
      • 7.032 cache e uncaching01:10
      • 7.033 Construtores de Gráfico
      • 7.034 RDDs de vértice e de borda01:17
      • 7.035 Otimizações do sistema gráfico01:22
      • 7.036 Algoritmos Internos
      • 7.037 Questionário
      • 7.038 Resumo01:12
      • 7.039 Resumo (continuação)00:55
      • 7.040 Conclusão00:11
    • {{childObj.title}}
      • {{childObj.childSection.chapter_name}}
        • {{lesson.title}}
      • {{lesson.title}}

    View More

    View Less

Exame e certificação

  • Como me torno um profissional certificado do Apache Spark e Scala?

    Para se tornar um profissional certificado pelo Apache Spark e pelo Scala, é obrigatório cumprir os dois critérios a seguir:
    • Você deve concluir um projeto dado pela Simplilearn que é avaliado pelo instrutor líder. Seu projeto pode ser submetido através do sistema de gerenciamento de aprendizado (LMS). Se você tiver dúvidas ou dificuldades enquanto estiver trabalhando no projeto, você pode obter assistência e esclarecimentos de nossos especialistas no SimpliTalk . Se você tiver mais problemas, consulte nosso Treinamento em sala de aula on-line, onde poderá assistir a qualquer um dos lotes contínuos das aulas de Treinamento de Certificação Apache Spark e Scala para obter ajuda com seu projeto.
    • É necessária uma pontuação mínima de 80% para passar no exame on-line. Se você não passar no exame on-line na primeira tentativa, poderá refazer o exame uma vez.
    • No final do curso Scala, você receberá um certificado de experiência informando que tem três meses de experiência na implementação do Spark e do Scala.

  • Quais são os pré-requisitos para o curso Scala?

    Os pré-requisitos para o curso Apache Spark e Scala são:
    • Conhecimento fundamental de qualquer linguagem de programação
    • Compreensão básica de qualquer banco de dados, SQL e linguagem de consulta para bancos de dados
    • Conhecimento prático de sistemas baseados em Linux ou Unix (não obrigatório)
    • Treinamento de certificação como um desenvolvedor de Big Data Hadoop (recomendado)

  • O que preciso fazer para desbloquear meu certificado Simplilearn?

    Sala de aula on-line:
    • Participe de um lote completo
    • Conclua um projeto e um teste de simulação com uma pontuação mínima de 60%
    Auto-aprendizagem online:
    • Complete 85% do curso
    • Conclua um projeto e um teste de simulação com uma pontuação mínima de 60%

    Peter Dao
    Peter Dao Senior Technical Analyst at Sutter Health

    O instrutor é muito experiente nesses tópicos. Eu gosto dos exemplos dados nas aulas.

    Amit Pradhan
    Amit Pradhan Assistant Manager at HT Media

    Foi realmente uma ótima experiência de aprendizado. O curso Big Data tem sido fundamental para estabelecer as bases para os iniciantes, tanto em termos de conteúdo conceitual quanto no laboratório prático. Graças a equipe Simplilearn que não era menos do que uma sala de aula ao vivo .. Realmente aprecio ..

    Read more Read less
    Aravinda Reddy
    Aravinda Reddy Lead Software Engineer at Thomson Reuters

    O treinamento foi muito bom. O treinador estava certo na agenda segmentada com grandes habilidades técnicas. Ele cobriu todos os tópicos com bom número de exemplos e nos permitiu fazer hands-on também.

    Read more Read less
    Martin Stufi
    Martin Stufi C.E.O - Solutia, s.r.o.

    Ótimo curso! Eu realmente recomendo!

    Anjaneya Prasad Nidubrolu
    Anjaneya Prasad Nidubrolu Assistant Consultant at Tata Consultancy Services

    Curso bem estruturado e o instrutor é muito bom. Ele tem um bom controle sobre o assunto e elimina nossas dúvidas instantaneamente e garante que todos os alunos entendam as coisas corretamente.

    Read more Read less
    Olga Barrett
    Olga Barrett Career Advisor @ CV Wizard of OZ

    Ótima Classe Muito interativo. A visão geral do HDFS e MapReduce foi muito útil, foi uma transição suave para o conhecimento do Apache Spark e Scala. O conteúdo é bom. No geral, excelente treinamento.

    Read more Read less
    Nagarjuna D N
    Nagarjuna D N AT&T

    Obtendo um treinamento de alta qualidade de especialistas do setor a sua conveniência, acessível com os recursos que você precisa para dominar o que você está aprendendo.

    Read more Read less
    Vinod JV
    Vinod JV Lead Software Engineer at Thomson Reuters

    O treinador tem um excelente conhecimento sobre o assunto e é muito minucioso em responder as dúvidas. Espero que o Simplilearn continue sempre a dar formadores como este.

    Read more Read less
    Arijit Chatterjee
    Arijit Chatterjee Senior Consultant at Capgemini

    Foi realmente uma experiência maravilhosa ter essa discussão de projeto em tempo real durante a sessão de treinamento. Ajudou a aprender em profundidade.

    Read more Read less
    • Disclaimer
    • PMP, PMI, PMBOK, CAPM, PgMP, PfMP, ACP, PBA, RMP, SP, and OPM3 are registered marks of the Project Management Institute, Inc.