hive客户端安装操作手册.doc
文本预览下载声明
Hive客户端安装操作手册
文档修订记录
版本编号
*变化
状态
简要说明(变更内容和变更范围)
日期
变更人
批准日期
批准人
V0.1
建立
Hive客户端安装操作手册
2006-10-19
陈卫群
*变化状态:建立,修改,增加,删除
文档审批信息
序号
审批人
角色
审批日期
签字
备注
主机说明
机器名称
IP地址
59
Salve1
60
Salve2
61
Salve3
62
客户端机
5
机器是hadoop大数据平台的主机
Salve1-salve3是hadoop大数据平台的数据节点
5机器是作为应用服务器部署开发的机器,通过该台机器来与大数据平台进行交互
准备工作
目录规划
在5上规划/home/nmc/nlcis/soft作为使用软件的存放目录
/home/nmc/nlcis/hive作为存放与hive相关的信息目录
/home/nmc/nlcis/hadoop作为存放hadoop有关的信息目录
操作实施
步骤1、查看当前的集群环境的hive的版本和hadoop的版本
通过下面的命令
hive –version 查看hive的版本
Hadoop version 查看hadoop的版本
步骤2、下载对应版本的hive和hadoop
HYPERLINK qq://txfile/ /cdh5/cdh/5/hive-0.12.0-cdh5.0.2.tar.gz
HYPERLINK /cdh5/cdh/5/hadoop-2.3.0-cdh5.0.2.tar.gz /cdh5/cdh/5/hadoop-2.3.0-cdh5.0.2.tar.gz
步骤3、修改客户机hosts文件
需要切换至root用户 修改 /etc/hosts 新增如下:
步骤4、安装java,配置JAVA_HOME
由于正常情况下我们没有root权限,在公司里面需要root权限需要找系统部,因此我们尽量把jdk放到用户目录下。
(1)、上传jdk 至/home/nmc/nlcis/soft
(2)解压 tar –xvf jdk-7u40-linux-x64.tar.gz 后如下图所示:
(3)设置JAVA_HOME环境变量
Cd ~
Vi .bash_profile 增加:export JAVA_HOME=/home/nmc/nlcis/soft/jdk1.7.0_40
保存后执行,source .bash_profile
步骤4、解压hadoop-2.3.0-cdh5.0.2.tar.gz 并配置hadoop配置文件
如下图所示:
core-site.xml直接从59机器拷贝。
通过命令scp /var/run/cloudera-scm-agent/process/341-hdfs-NAMENODE/core-site.xml HYPERLINK mailto:nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop
mapred-site.xml 直接从59 机器拷贝。
Scp /var/run/cloudera-scm-agent/process/341-hdfs-NAMENODE/mapred-site.xml HYPERLINK mailto:nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop
hadfs-site.xml 先从59机器上拷贝下来
Scp /var/run/cloudera-scm-agent/process/341-hdfs-NAMENODE/hdfs-site.xml HYPERLINK mailto:nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop
然后删除带’.txt’的两个参数,这个是白名单,没啥用
yarn-site.xml直接从59机器拷贝。
Scp /var/run/cloudera-scm-agent/process/341-hdfs-NAMENODE/yarn-site.xml HYPERLINK mailto:nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh
显示全部