【云计算】HDFSHA完全分布式搭建步骤
小标 2018-12-05 来源 : 阅读 1211 评论 0

摘要:本文主要向大家介绍了【云计算】HDFSHA完全分布式搭建步骤,通过具体的内容向大家展现,希望对大家学习云计算有所帮助。

本文主要向大家介绍了【云计算】HDFSHA完全分布式搭建步骤,通过具体的内容向大家展现,希望对大家学习云计算有所帮助。


集群规划:

 
 

NN-1


 

 

NN-2


 

 

DN


 

 

ZK


 

 

ZKFC


 

 

JNN


 

 

node01


 

 

*


 
   
 

*


 

 

*


 

 

node02


 
 
 

*


 

 

*


 

 

*


 

 

*


 

 

*


 

 

node03


 
  
 

*


 

 

*


 

 

*


 

 

*


 

 

node04


 
  
 

*


 

 

*


 
  


注:node01-node04为四个节点(虚拟机),NN-1、NN-2为两个NameNode,DN表示DataNode,zk表示zookeeper,JNN表示JournalNode。


1.先把每个节点的防火墙关掉


1)service iptables status 查看防火墙状态


2)service iptables stop 关闭防火墙


2.配置免密登录


node01->node01 node01->node02 node01->node03 node01->node04


node02->node01


1)每台节点(虚拟机)修改/etc/hosts文件,内容为



2)所有节点执行 ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa


3在node01节点执行,将node01的公钥加入到其他节点的白名单中


ssh-copy-id -i ~/.ssh/id_rsa.pub root@node01


ssh-copy-id -i ~/.ssh/id_rsa.pub root@node02


ssh-copy-id -i ~/.ssh/id_rsa.pub root@node03


ssh-copy-id -i ~/.ssh/id_rsa.pub root@node04


4)在node02节点执行,将node02的公钥加入node01节点的白名单中


ssh-copy-id -i ~/.ssh/id_rsa.pub root@node01


3.所有节点配置JDK


1)修改环境变量,vim /etc/profile在末尾添加以下两行代码



2)使/etc/profile环境变量配置生效


source /etc/profile


4.在node01节点配置hadoop


1)修改/etc/profile文件,修改完记得source /etc/profile



2)修改hadoop-env.sh中JAVA_HOME路径


vim /opt/software/hadoop/hadoop-2.6.5/etc/hadoop/hadoop-env.sh 内容修改如下


3)修改hdfs-site.xml配置文件hdfs-site.xml


vim /opt/software/hadoop/hadoop-2.6.5/etc/hadoop/hdfs-site.xml 在标签中添加以下内容



dfs.nameservices


mycluster



dfs.ha.namenodes.mycluster


nn1,nn2



dfs.namenode.rpc-address.mycluster.nn1


node01:8020



dfs.namenode.rpc-address.mycluster.nn2


node02:8020



dfs.namenode.http-address.mycluster.nn1


node01:50070



dfs.namenode.http-address.mycluster.nn2


node02:50070



dfs.namenode.shared.edits.dir


qjournal://node01:8485;node02:8485;node03:8485/mycluster



dfs.journalnode.edits.dir


/var/sxt/hadoop/ha/jn



dfs.client.failover.proxy.provider.mycluster org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider



dfs.ha.fencing.methods


sshfence



dfs.ha.fencing.ssh.private-key-files


/root/.ssh/id_rsa



dfs.ha.automatic-failover.enabled


true


4)修改core-site.xml配置文件


vim /opt/software/hadoop/hadoop-2.6.5/etc/hadoop/core-site.xml 在标签中添加以下内容



fs.defaultFS


hdfs://mycluster



ha.zookeeper.quorum


node02:2181,node03:2181,node04:2181


5)修改slaves配置文件


vim /opt/software/hadoop/hadoop-2.6.5/etc/hadoop/slaves 内容更改如下(注意竖着排列,不要有多余空格)


node02


node03


node04


5.将配置好的HDFS安装包拷贝到node02 node03 node04



6.格式化NameNode(创建目录以及文件)


1)在node01、node02、node03分别执行如下命令


hadoop-daemon.sh start journalnode


2)随机选择一台NameNode执行如下两条命令(此namenode为active状态)


hdfs namenode -format


hadoop-daemon.sh start namenode


3)另外一台NameNode节点执行(此namenode为standby状态)


hdfs namenode -bootstrapStandby


7.搭建zookeeper集群


1)请自行下载并解压


2)修改conf目录下的zoo_sample.cfg(我的绝对路径为/opt/software/zookeeper/zookeeper-3.4.10/conf/zoo_sample.cfg)的名称,改为zoo.cfg


mv zoo_sample.cfgzoo.cfg


3)修改zoo.cfg(vim zoo.cfg)



4)在dataDir目录下创建一个myid文件,在这个文件中写上当前节点ID号(此处node02为1)


5)将配置好的zookeeper安装包拷贝到node03 node04


参考上面第五步hadoop的拷贝


6)拷贝完毕后,在各自节点上创建myid号,ID号要依次递增(此处node03为2,node04为3)


7)格式化zookeeper(一个节点执行级即可)


hdfs zkfc -formatZK


8.关闭所有节点上的进程


stop-dfs.sh


9.启动HDFS


start-dfs.sh


10.操作HDFS文件系统



          

本文由职坐标整理并发布,希望对同学们有所帮助。了解更多详情请关注职坐标大数据云计算大数据安全频道!

本文由 @小标 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式AI+学习就业服务平台 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved