基于Hadoop的云计算平台搭建毕业设计开题报告.doc
文本预览下载声明
本科毕业设计(论文)开题报告
题目:
学生姓名 学 号 教学院系 专业年级 指导教师 职 称 单 位
1 选题的目的和意义
1.1 设计的背景
Hadoop作为Apache基金会资助的开源项目,由Doug Cutting带领的团队进行开发,基于Lucene和Nutch等开源项目,实现了Google的GFS和Hadoop能够稳定运行在20个节点的集群;2006年1月,Doug Cutting加入雅虎公司,同年2月Apache Hadoop项目正式支持HDFS和MapReduce的独立开发。同时,新兴公司Cloudera为Hadoop提供了商业支持,帮助企业实现标准化安装,并志愿贡献社区。
1.1 选题的现状
1.1.1 海量数据时代的现状
我们生活在数据的时代,很难估计全球的数据有多少,“数字宇宙”项目统计得出,2006年的数据总量为0.18zb,也就是10亿TB。
问题1:数据处理速度不够,以100mb每秒计算,读取1tb的数据需要2个半小时。一个比较好的方案就是把数据放在100个磁盘中每个磁盘中存放1%的数据并行读取,不到2min就能读取所有数据。经过统计用户的分析工作会在不同的时间点进行,所以用户相互间的干扰不会太大。但是一旦硬件发生故障,用户的数据就会丢失,所以要准备多份。(HDFS)
问题2:需要从100个磁盘中取出数据结合使用。Mapreduce将这个问题抽象,转化为对一个数据集合的计算。这个计算模型分为map和reduce两个阶段,只有这两个部分对外提供接口。
举例 Rackspace的一个部门Mailtrust:mapreduce是一种比较蛮力的办法,每个查询几乎需要处理整个数据集,至少是数据集的很大一部分。在合理的时间内对整个数据集合的数据即时查询,是对数据的一种创新。rackspace的mailtrust部门,使用hadoop处理邮件日志,他们做用户地理分布查询。“这些数据非常有用,每个月运行一次决定哪些rackspace数据中心需要添加新的邮件服务器“。通过整合数百GB的数据,并分析,可以通过这些数据改善现有服务。
1.1.2 Hadoop的发展史
Hadoop起源于Nutch网络搜索引擎,Nutch是Lucene(一个文本搜索系统库)的一部分,创始人为Doug Cutting。
Nutch项目开始于2002年
2004年开始开发GFS的开源版本NDFS,谷歌发表论文向全世界介绍它的mapreduce系统。
2005年实现了mapreduce的开源版本。
2006年将hadoop移出Nutch独立成为一个项目,hadoop创始人进入雅虎
2008年Hadoop成为apache顶级项目,证明了其成功。209S 完成1tb数据排序
2009年4月 59秒排序500GB 1400节点 173分钟排序100T的数据3400节点
典型案例 纽约时报 facebook last.fm
1.1.3 Hadoop生态系统
Common:IO组件于接口(序列化,javaRPC,持久化数据结构)
Pig: 数据流语言和运行环境,检索非常大的数据集
Hive: 管理HDFS中的数据,提供sql查询
Hbase: 安列存储数据库,支持批量式计算和点查询
ZooKeeper: 一个分布式、可用性高的协调系统。ZooKeeper提供分布式锁之类的基本服务用于构建分布式应用。
Sqoop: 在数据库和HDFS之间高效传输的数据工具。
Kerberos:实现的是机器级别的安全认证,也就是前面提到的服务到服务的认证问题。防止了用户伪装成Datanode,Tasktracker,去接受JobTracker,Namenode的任务指派。Kerberos对可信任的客户端提供认证,确保他们可以执行作业的相关操作。防止用户恶意冒充client提交作业的情况。用户无法伪装成其他用户入侵到一个HDFS或者MapReduce集群上。用户即使知道datanode的相关信息,也无法读取HDFS上的数据,用户无法发送对于作业的操作到JobTracker上。
2 主要研究的内容
2.1 系统概述
2.1.1 功能与作用
众所周知,现代社会的信息量增长速度极快,这些信息里又积累着大量的数据,其中包括个人数据和工业数据。预计到2020年,每年产生的数字信息将会有超过1/3的内容驻留在云平台中或借助云平台处理。我们需要对这些数据进行分析和处理,以获取更多有价值的信息。那么我们如何高效地存储和管理这些数据,如何分析这些数据呢?这时可以选用Hadoop系统,它在处理这类问题时,采用了分布式存储方式,提高了读写速度,并扩大了存储容量。采用MapReduce来整合分布式文件系统上的数据,可保证分析和处理数据的高效。与此同时,Hadoop还采用存储冗余数据的
显示全部