Você está procurando por:
Contato Whatsapp

Sobre o Curso

Visão abrangente da Arquitetura e das Tecnologias de Big Data. O papel do profissional de dados nas empresas e na sociedade. Desenvolvimento de aplicações e soluções baseadas em Big Data, como ingestão, processamento e armazenamento de dados em batch e real time.

Um curso que combina abordagem teórica com aulas práticas, em que você vai usar o Ecossistema Hadoop (HDFS, YARN/MapReduce, Hive, Impala, Spark, Kafka e HBase) para implementar soluções para casos do dia a dia.

Desafiamos você a dominar os mais diversos e complexos ambientes de dados existentes nas organizações. Mudar paradigmas utilizando as novas tecnologias. E, assim, iniciar sua jornada em plataforma de dados com grandes volumes.

 

PARA QUEM?

Profissionais de TI (analistas, especialistas e gestores) que atuam nas áreas de BI, Banco de Dados, Infraestrutura e Desenvolvimento de Sistemas.


PRÉ-REQUISITOS

Recomendamos o mínimo de 2 anos de experiência profissional na área de TI, com conhecimento básico em Sistema Operacional Linux, Banco de Dados e lógica de programação.

 

SHIFT REMOTO

Aulas ao vivo com conteúdo e metodologia especialmente pensados para o aprendizado remoto. Os vídeos dos encontros também ficam disponíveis por 7 dias após a última aula. O conteúdo complementar pode ser acessado durante 1 ano. E você ainda tem acesso ao ecossistema FIAP e aos nossos coworkings.

 

Avise-me quando a nova turma for aberta.

Investimento

Formas de Pagamento

  • American Express
  • Master Card
  • VISA
  • ELO

Alunos e ex-alunos têm 20% de desconto na compra dos cursos SHIFT.
* Desconto não cumulativo.

Short Bio

Fábio Gomes Jardim
Conecte-se

Especialista em plataforma de dados, vivência em desenvolvimento de sistemas e infraestrutura. Nos últimos anos liderando e atuando com arquitetura Big Data e de soluções, implementando e desenvolvendo soluções de ingestão, processamento de dados e criação de Data Lake

Conteúdo

Módulo 1

FUNDAMENTOS DE BIG DATA

    • Introdução ao BIG DATA
    • Por onde começar?
    • Planejamento técnico
Módulo 2

HANDS-ON ECOSSISTEMA APACHE HADOOP (HDFS,MAPREDUCE e YARN)

    • Arquitetura
    • Implementação
    • Funcionalidades
    • Integração e utilização
Módulo 3

HANDS-ON ACESSO A DADOS (Hive, Impala, Nosql, HBase )

    • Arquitetura
    • Implementação
    • Modelo de dados
    • CRUD e Funcionalidades
    • Load e extract
Módulo 4

HANDS-ON INGESTÃO DE DADOS (Flume, Kafka, Sqoop e nova tecnologias)

    • Arquitetura
    • Implementação
    • Funcionalidades
    • Integração e Ingestão de Dados
Módulo 5

ANÁLISE E PROCESSAMENTO DE DADOS (Spark)

    • Arquitetura
    • Implementação
    • Funcionalidades
    • Análise em lote e em tempo real
    • Consultas dinâmicas em grandes volumes de dados