O Apache Hadoop é um software open source utilizado na construção de infraestruturas de processamento de grandes volumes de dados requerido pelas soluções de negócio de big data. Com o Apache Hadoop é possível construir uma infraestrutura de big data escalável, confiável e tolerante a falhas.
Conteúdo da palestra:
- Introdução ao Big Data
- Compreendendo o Apache HDFS
- O modelo MapReduce
Palestrante
Humberto Bulhões Aranha - tecnólogo em processamento de dados pela PUC-Rio e MSC em sistemas e computação na linha de pesquisa de bancos de dados pelo instituto militar de engenharia.
É arquiteto de soluções de data warehouse e business intelligence e de busca com especial interesse em big data, real time analytics, machine learning, inteligência artificial e busca semântica.