Descrição do Curso

  • Sobre o que é este curso?

    A "Introdução ao Big Data e ao Hadoop" é um pacote de curso ideal para pessoas que desejam entender os conceitos básicos de Big Data e Hadoop. Ao concluir este curso, os alunos serão capazes de interpretar o que está por trás do processamento de grandes volumes de dados à medida que a indústria passa das análises baseadas em Excel para análises em tempo real.

    O curso enfoca os fundamentos do Big Data e do Hadoop. Além disso, fornece uma visão geral das distribuições comerciais do Hadoop, bem como dos componentes do ecossistema Hadoop.

  • Por que o curso é mais procurado?

    O Big Data Analytics é amplamente usado para analisar grandes volumes de dados. A crescente necessidade de profissionais equipados com o conhecimento de Big Data e Hadoop aumentou as oportunidades para quem quer fazer carreira nesse campo. Conhecer os fundamentos do Big Data e do Hadoop facilitará que esses profissionais sigam cursos de nível avançado sobre esse assunto e adquiram habilidades para se tornar especialistas em análise de Big Data.

    O conhecimento do Big Data e do Hadoop permite instalar e configurar componentes do Hadoop e gerenciar, além de integrar grandes conjuntos de dados não estruturados. Os exemplos a seguir mostram por que você deve se familiarizar com o conhecimento de Big Data e Hadoop.
    • O Facebook , que é uma empresa de US $ 5,1 bilhões, tem mais de 1 bilhão de usuários ativos! É o Hadoop que permite ao Facebook gerenciar dados de tal magnitude.
    • O Linkedin gerencia mais de 1 bilhão de recomendações personalizadas toda semana, com a ajuda dos recursos MapReduce e HDFS do Hadoop.
    • O Yahoo! Search Webmap é um aplicativo Hadoop que é executado em mais de 10.000 clusters Linux e gera os dados que são amplamente usados ​​em cada consulta do Yahoo! Pesquisa na internet.

  • Quais os benefícios de aprendizagem que você obtém com o treinamento da Simplilearn?

    No final do treinamento do Simplilearn sobre os fundamentos do Big Data e do Hadoop, os participantes irão:
    • Entenda as características do Big Data
    • Descrever os conceitos básicos da arquitetura Hadoop e HDFS
    • Listar os recursos e processos do MapReduce
    • Aprenda os conceitos básicos de Pig, Hive e HBase
    • Explore as distribuições comerciais do Hadoop
    • Entenda os principais componentes do ecossistema do Hadoop
    • Apresentar-se a Sqoop e ZooKeeper

  • Quais são os benefícios de carreira na loja para você?

    Um bom entendimento dos fundamentos do Big Data e do Hadoop facilita o aprimoramento de suas habilidades analíticas, aumentando assim suas perspectivas de carreira no setor de análise de Big Data. De acordo com Robert Half Technology, o salário médio de um profissional certificado pelo Hadoop está na faixa de US $ 154.250.

    As principais empresas como Microsoft, Software AG, IBM, Oracle, HP, SAP, EMC2 e Dell investiram enormes US $ 15 bilhões em análise e gerenciamento de dados, aumentando assim o número de oportunidades para profissionais certificados Big Data e Hadoop.

  • Quem deve fazer este curso?

    O curso "Introdução ao Big Data e Hadoop" do Simplilearn é destinado a profissionais que pretendem obter um conhecimento básico de Big Data e Hadoop. É ideal para profissionais da gerência sênior que exigem um entendimento teórico de como o Hadoop pode resolver seu problema de Big Data.

Prévia do curso

    • Lição 1.0 - Introdução ao Big Data e ao Hadoop 29:37
      • 1 Introdução ao Big Data e Hadoop 00:21
      • 2 objetivos 00:26
      • 3 Necessidade de Big Data 01:42
      • 4 Três Características do Big Data 00:35
      • 5 Características da Tecnologia Big Data 01:52
      • 6 Apelo da tecnologia Big Data 00:50
      • 7 Lidando com Limitações do Big Data 00:49
      • 8 Introdução ao Hadoop 01:00
      • 9 Configuração do Hadoop 00:53
      • 10 Componentes Principais do Apache Hadoop 00:36
      • 11 Componentes Principais do Hadoop - HDFS 01:07
      • 12 componentes principais do Hadoop - MapReduce 00:45
      • 13 Arquitetura HDFS 01:13
      • 14 Ubuntu Server - Introdução 00:51
      • 15 Instalação do Hadoop - Pré-requisitos 00:26
      • 16 Instalação de vários nós do Hadoop - Pré-requisitos 00:29
      • 17 Cluster de nó único versus cluster de vários nós 00:49
      • 18 MapReduce 01:09
      • 19 Características do MapReduce 00:56
      • 20 usos em tempo real do MapReduce 01:01
      • 21 Pré-requisitos para instalação do Hadoop no Ubuntu Desktop 12.04 00:20
      • 22 Hadoop MapReduce - Recursos 00:52
      • 23 Hadoop MapReduce - Processos 00:48
      • 24 HDFS Avançado - Introdução 00:47
      • 25 Advanced MapReduce 00:55
      • 26 tipos de dados no Hadoop 01:15
      • 27 Cache Distribuído 00:41
      • 28 Cache Distribuído (continuação) 00:40
      • 29 Junta-se ao MapReduce 00:44
      • 30 Introdução ao Porco 00:40
      • 31 componentes de porco 01:00
      • 32 Modelo de Dados 00:43
      • 33 Porco vs. SQL 01:07
      • 34 Pré-requisitos para definir o ambiente para o Latin Pig 00:20
      • 35 Resumo 00:55
    • Lição 1.1 - Componentes do Ecossistema HBase e Hadoop do Hive 29:59
      • 1 Componentes do Ecossistema Hive, HBase e Hadoop 00:22
      • 2 objetivos 00:23
      • 3 Hive - Introdução 00:55
      • 4 Colméia - Características 01:20
      • 5 Arquitetura do Sistema e Componentes do Hive 00:18
      • 6 Noções Básicas de Linguagem de Consulta de Hive 00:38
      • 7 Modelo de Dados - Tabelas 00:32
      • 8 tipos de dados na seção 00:16
      • 9 Serialização e De serialização 01:19
      • 10 UDF / UDAF vs. Scripts MapReduce 00:47
      • 11 HBase - Introdução 01:15
      • 12 Características do HBase 00:42
      • 13 Arquitetura HBase 01:04
      • 14 HBase vs. RDBMS 01:08
      • 15 Cloudera - Introdução 00:44
      • 16 Distribuição Cloudera 01:07
      • 17 Gerente Cloudera 00:34
      • 18 Hortonworks Data Platform 00:42
      • 19 Plataforma de Dados MapR 00:43
      • 20 Pivotal HD 00:53
      • 21 Introdução ao ZooKeeper 00:23
      • 22 Recursos do ZooKeeper 01:12
      • 23 gols do ZooKeeper 00:38
      • 24 Usos do ZooKeeper 00:49
      • 25 Sqoop - razões para usá-lo 01:26
      • 26 Sqoop - razões para usá-lo (cont.) 01:09
      • 27 benefícios do Sqoop 00:42
      • 28 Ecossistema Apache Hadoop 00:59
      • 29 Apache Oozie 00:43
      • 30 Introdução ao Mahout 00:22
      • 31 Uso do Mahout 00:28
      • 32 Apache Cassandra 00:54
      • 33 Apache Spark 01:28
      • 34 Apache Ambari 00:32
      • 35 Principais recursos do Apache Ambari 00:51
      • 36 Segurança do Hadoop - Kerberos 00:53
      • 37 Resumo 00:48
    • Lição 1.2 - Questionário
      • Questionário
    • Lição 1.3 - Obrigado 00:09
      • Obrigado 00:09
    • {{childObj.title}}
      • {{childObj.childSection.chapter_name}}
        • {{lesson.title}}
      • {{lesson.title}}

    View More

    View Less

Exame e certificação

  • Quais qualificações você precisa?

    Não há pré-requisitos para este curso.

  • O que preciso fazer para desbloquear meu certificado Simplilearn?

    • Complete 85% do curso.
    • Complete 1 teste de simulação com uma pontuação mínima de 60%.

Rever

Cadence Serna
Cadence Serna Customer Lifecycle Management at AT&T

Para uma introdução, isso ainda é muito denso. Há muito a receber; é uma visão de cima para baixo muito ampla e detalhada do big data. Estou muito feliz por ter tido tempo para ver esta introdução.

Read more Read less
Shubham Das
Shubham Das SCM Analyst at Tata Consultancy Services

O curso é muito informativo e detalhado.

Venkat Nagender
Venkat Nagender Solution Architect @ Ericsson

Muito bom e facilmente compreensível. Todos os tópicos importantes são abordados.

FAQs

  • Eu quero saber mais sobre o programa de treinamento. Com quem eu entro em contato?

    Por favor, junte-se ao nosso chat ao vivo para suporte instantâneo, ligue para nós ou solicite uma chamada de retorno para ter sua consulta resolvida.

    • Disclaimer
    • PMP, PMI, PMBOK, CAPM, PgMP, PfMP, ACP, PBA, RMP, SP, and OPM3 are registered marks of the Project Management Institute, Inc.