Descrição do Curso

  • Sobre o que é este curso?

    A "Introdução ao Big Data e ao Hadoop" é um pacote de curso ideal para pessoas que desejam entender os conceitos básicos de Big Data e Hadoop. Ao concluir este curso, os alunos serão capazes de interpretar o que está por trás do processamento de grandes volumes de dados à medida que a indústria passa das análises baseadas em Excel para análises em tempo real.

    O curso enfoca os fundamentos do Big Data e do Hadoop. Além disso, fornece uma visão geral das distribuições comerciais do Hadoop, bem como dos componentes do ecossistema Hadoop.

  • Por que o curso é mais procurado?

    O Big Data Analytics é amplamente usado para analisar grandes volumes de dados. A crescente necessidade de profissionais equipados com o conhecimento de Big Data e Hadoop aumentou as oportunidades para quem quer fazer carreira nesse campo. Conhecer os fundamentos do Big Data e do Hadoop facilitará que esses profissionais sigam cursos de nível avançado sobre esse assunto e adquiram habilidades para se tornar especialistas em análise de Big Data.

    O conhecimento do Big Data e do Hadoop permite instalar e configurar componentes do Hadoop e gerenciar, além de integrar grandes conjuntos de dados não estruturados. Os exemplos a seguir mostram por que você deve se familiarizar com o conhecimento de Big Data e Hadoop.
    • O Facebook , que é uma empresa de US $ 5,1 bilhões, tem mais de 1 bilhão de usuários ativos! É o Hadoop que permite ao Facebook gerenciar dados de tal magnitude.
    • O Linkedin gerencia mais de 1 bilhão de recomendações personalizadas toda semana, com a ajuda dos recursos MapReduce e HDFS do Hadoop.
    • O Yahoo! Search Webmap é um aplicativo Hadoop que é executado em mais de 10.000 clusters Linux e gera os dados que são amplamente usados ​​em cada consulta do Yahoo! Pesquisa na internet.

  • Quais os benefícios de aprendizagem que você obtém com o treinamento da Simplilearn?

    No final do treinamento do Simplilearn sobre os fundamentos do Big Data e do Hadoop, os participantes irão:
    • Entenda as características do Big Data
    • Descrever os conceitos básicos da arquitetura Hadoop e HDFS
    • Listar os recursos e processos do MapReduce
    • Aprenda os conceitos básicos de Pig, Hive e HBase
    • Explore as distribuições comerciais do Hadoop
    • Entenda os principais componentes do ecossistema do Hadoop
    • Apresentar-se a Sqoop e ZooKeeper

  • Quais são os benefícios de carreira na loja para você?

    Um bom entendimento dos fundamentos do Big Data e do Hadoop facilita o aprimoramento de suas habilidades analíticas, aumentando assim suas perspectivas de carreira no setor de análise de Big Data. De acordo com Robert Half Technology, o salário médio de um profissional certificado pelo Hadoop está na faixa de US $ 154.250.

    As principais empresas como Microsoft, Software AG, IBM, Oracle, HP, SAP, EMC2 e Dell investiram enormes US $ 15 bilhões em análise e gerenciamento de dados, aumentando assim o número de oportunidades para profissionais certificados Big Data e Hadoop.

  • Quem deve fazer este curso?

    O curso "Introdução ao Big Data e Hadoop" do Simplilearn é destinado a profissionais que pretendem obter um conhecimento básico de Big Data e Hadoop. É ideal para profissionais da gerência sênior que exigem um entendimento teórico de como o Hadoop pode resolver seu problema de Big Data.

Prévia do curso

    • Lição 1.0 - Introdução ao Big Data e ao Hadoop 29:37
      • 1 Introdução ao Big Data e Hadoop00:21
      • 2 objetivos00:26
      • 3 Necessidade de Big Data01:42
      • 4 Três Características do Big Data00:35
      • 5 Características da Tecnologia Big Data01:52
      • 6 Apelo da tecnologia Big Data00:50
      • 7 Lidando com Limitações do Big Data00:49
      • 8 Introdução ao Hadoop01:00
      • 9 Configuração do Hadoop00:53
      • 10 Componentes Principais do Apache Hadoop00:36
      • 11 Componentes Principais do Hadoop - HDFS01:07
      • 12 componentes principais do Hadoop - MapReduce00:45
      • 13 Arquitetura HDFS01:13
      • 14 Ubuntu Server - Introdução00:51
      • 15 Instalação do Hadoop - Pré-requisitos00:26
      • 16 Instalação de vários nós do Hadoop - Pré-requisitos00:29
      • 17 Cluster de nó único versus cluster de vários nós00:49
      • 18 MapReduce01:09
      • 19 Características do MapReduce00:56
      • 20 usos em tempo real do MapReduce01:01
      • 21 Pré-requisitos para instalação do Hadoop no Ubuntu Desktop 12.0400:20
      • 22 Hadoop MapReduce - Recursos00:52
      • 23 Hadoop MapReduce - Processos00:48
      • 24 HDFS Avançado - Introdução00:47
      • 25 Advanced MapReduce00:55
      • 26 tipos de dados no Hadoop01:15
      • 27 Cache Distribuído00:41
      • 28 Cache Distribuído (continuação)00:40
      • 29 Junta-se ao MapReduce00:44
      • 30 Introdução ao Porco00:40
      • 31 componentes de porco01:00
      • 32 Modelo de Dados00:43
      • 33 Porco vs. SQL01:07
      • 34 Pré-requisitos para definir o ambiente para o Latin Pig00:20
      • 35 Resumo00:55
    • Lição 1.1 - Componentes do Ecossistema HBase e Hadoop do Hive 29:59
      • 1 Componentes do Ecossistema Hive, HBase e Hadoop00:22
      • 2 objetivos00:23
      • 3 Hive - Introdução00:55
      • 4 Colméia - Características01:20
      • 5 Arquitetura do Sistema e Componentes do Hive00:18
      • 6 Noções Básicas de Linguagem de Consulta de Hive00:38
      • 7 Modelo de Dados - Tabelas00:32
      • 8 tipos de dados na seção00:16
      • 9 Serialização e De serialização01:19
      • 10 UDF / UDAF vs. Scripts MapReduce00:47
      • 11 HBase - Introdução01:15
      • 12 Características do HBase00:42
      • 13 Arquitetura HBase01:04
      • 14 HBase vs. RDBMS01:08
      • 15 Cloudera - Introdução00:44
      • 16 Distribuição Cloudera01:07
      • 17 Gerente Cloudera00:34
      • 18 Hortonworks Data Platform00:42
      • 19 Plataforma de Dados MapR00:43
      • 20 Pivotal HD00:53
      • 21 Introdução ao ZooKeeper00:23
      • 22 Recursos do ZooKeeper01:12
      • 23 gols do ZooKeeper00:38
      • 24 Usos do ZooKeeper00:49
      • 25 Sqoop - razões para usá-lo01:26
      • 26 Sqoop - razões para usá-lo (cont.)01:09
      • 27 benefícios do Sqoop00:42
      • 28 Ecossistema Apache Hadoop00:59
      • 29 Apache Oozie00:43
      • 30 Introdução ao Mahout00:22
      • 31 Uso do Mahout00:28
      • 32 Apache Cassandra00:54
      • 33 Apache Spark01:28
      • 34 Apache Ambari00:32
      • 35 Principais recursos do Apache Ambari00:51
      • 36 Segurança do Hadoop - Kerberos00:53
      • 37 Resumo00:48
    • Lição 1.2 - Questionário
      • Questionário
    • Lição 1.3 - Obrigado 00:09
      • Obrigado00:09
    • {{childObj.title}}
      • {{childObj.childSection.chapter_name}}
        • {{lesson.title}}
      • {{lesson.title}}

    View More

    View Less

Exame e certificação

  • Quais qualificações você precisa?

    Não há pré-requisitos para este curso.

  • O que preciso fazer para desbloquear meu certificado Simplilearn?

    • Complete 85% do curso.
    • Complete 1 teste de simulação com uma pontuação mínima de 60%.

    Cadence Serna
    Cadence Serna Customer Lifecycle Management at AT&T

    Para uma introdução, isso ainda é muito denso. Há muito a receber; é uma visão de cima para baixo muito ampla e detalhada do big data. Estou muito feliz por ter tido tempo para ver esta introdução.

    Read more Read less
    Shubham Das
    Shubham Das SCM Analyst at Tata Consultancy Services

    O curso é muito informativo e detalhado.

    Venkat Nagender
    Venkat Nagender Solution Architect @ Ericsson

    Muito bom e facilmente compreensível. Todos os tópicos importantes são abordados.

    • Disclaimer
    • PMP, PMI, PMBOK, CAPM, PgMP, PfMP, ACP, PBA, RMP, SP, and OPM3 are registered marks of the Project Management Institute, Inc.