文档详情

Hadoop大数据开发基础与案例实战(微课版)课件 2.2Hadoop生态系统(完).pptx

发布:2025-03-09约小于1千字共13页下载文档
文本预览下载声明

Hadoop大数据项目开发——Hadoop生态系统

目录content02MapRedcue01HDFS03YARN04ZooKeeper05Hive07Sqoop06HBase08Kafka09Flume

Hadoop生态系统简介Hadoop生态系统图

HDFS:分布式文件系统成百上千台服务器完成海量数据存储和管理。可以运行在廉价的个人计算机集群上。HDFS负责整个分布式文件的存储

YARN:资源调度YARN负责资源的管理和调度例如内存,CPU,带宽等需要YARN统一调度。海量数据在HDFS存储后,需要进行相关的处理,但是处理之前,需要一个计算的框架去调度资源,底层那么多资源,需要YARN框架进行调度。

MapReduce:分布式文件计算不是实时计算,是负责离线,批处理计算的。用户只需实现Map和Reduce两个函数就可以完成分布式计算任务。MapReduce解决海量数据的计算问题

Hive:数据仓库Hive是Hadoop的数据仓库。用于离线分析用于企业的决策分析

ZooKeeper:协调服务用于统一维护配置信息、域名,提供分布式同步、组服务等可以用来搭建高可用集群。Hive是分布式应用程序协调服务。

HBase:非结构化数据库面向列的分布式开源数据库。随机读写,支持实时应用。HBase是非关系型数据库。HBase是Hadoop的非结构化数据库。

Flume:日志收集访问阿里巴巴、淘宝时的数据流都是实时生成的,需要进行实时分析,必须有一套工具把它收集过来,Flume就是帮助进行日志收集的。Flume负责日志收集

Sqoop:数据导入导出Sqoop专门用于把关系型数据库中的相关产品导入到Hadoop平台上的HDFS、HBASE、HIVE数据库;反之,用Sqoop把Hadoop平台上的HDFS、HBASE、HIVE中的数据导出到关系型数据库中。Sqoop负责数据的导入导出

Kafka:开源流处理平台是一个开源流处理平台,由Scala和Java编写。是一种高吞吐量的分布式发布订阅消息系统。它可以处理消费者在网站中的所有动作流数据。

本节小结本节介绍了Hadoop生态系统中的主要组件,Hadoop经过多年的发展,整个生态系统不断成熟和完善。

显示全部
相似文档