摘要:本文主要向大家介绍了【云计算】hadoop集群环境搭建,通过具体的内容向大家展现,希望对大家学习云计算有所帮助。
本文主要向大家介绍了【云计算】hadoop集群环境搭建,通过具体的内容向大家展现,希望对大家学习云计算有所帮助。
防火墙直接关死
1. Hadoop集群规划
主机名(hostname) | 安装软件 | 运行进程 |
---|---|---|
mini1 | hadoop-2.7.1 | nameNode、resourceManager |
mini2 | hadoop-2.7.1 | dataNode、nodeManager |
mini3 | hadoop-2.7.1 | dataNode、nodeManager |
2 HADOOP集群安装步骤
准备三台Centos6.7 64bit虚拟机:注意 三台机器使用root用户登陆系统
分别修改虚拟机的主机名(hostname)
分别配置三台机器的静态i
分别修改三台机器hosts 以上步骤上一篇都有
分别为每台机器创建一个名为“hadoop”的用户
useradd hadoop #添加hadoop用户
passwd hadoop #给hadoop用户 设置密码
分别为每台机器的“hadoop”用户配置sudo权限
chmod u+w /etc/sudoers #为sudoers文件添加一个“可以写入”的权限
vi /etc/sudoers #用root用户编辑sudoers文件
直接yy复制 p粘贴再按i修改,其他的修改操作出错可能性大
在其下root ALL=(ALL) ALL
加 hadoop ALL=(ALL) ALL
安装 jdk-7u55-linux-i586.tar.gz
#(1)解压jdk
#创建文件夹
mkdir /home/hadoop/develop_env
#解压
tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/develop_env
#(2)将java添加到环境变量中
vim /etc/profile
#在文件最后添加
export JAVA_HOME=/home/hadoop/develop_env/jdk1.7.0_65
export PATH=$PATH:$JAVA_HOME/bin
#刷新配置
source /etc/profile
三台机器分别切换为hadoop用户并创建一个名为develop_env的文件夹
su - hadoop #切换到hadoop用户
mkdir develop_env #在hadoop的家目录下创建一个develop_env文件
下面hadoop用户登场
上传hadoop-2.7.1.tar.gz到Centos6.7_min1机器的/home/hadoop/develop_env目录下
解压hadoop-2.7.1.tar.gz安装包
cd /home/hadoop/develop_env #切换到/home/hadoop/develop_env目录
tar -zxvf hadoop-2.7.1.tar.gz -C /home/hadoop/develop_env #解压
设置hadoop-env.sh配置文件
cd /home/hadoop/develop_env/hadoop-2.7.1/etc/hadoop #切换目录
vi hadoop-env.sh #添加如下内容
# The java implementation to use.
原来的那个export JAVA_HOME=后面这些记不清了,直接删掉加上jdk的安装路径就行了
export JAVA_HOME=/home/hadoop/develop_env/jdk1.8.0_60
设置core-site.xml配置文件
mkdir /home/hadoop/develop_env/hadoop-2.7.1/data #创建一个名为的文件夹
vi core-site.xml #在之间添加如下内容
#内容如下:
fs.defaultFS
hdfs://mini1:9000
hadoop.tmp.dir
/home/hadoop/develop_env/hadoop-2.7.1/data
data会在格式化的时候自动创建
设置hdfs-site.xml配置文件(该文件默认即可,今天就不用配置此文件了)
vi hdfs-site.xml #添加如下内容
#添加如下内容
dfs.replication
2
#2就是备份的数量,2或3比较好
设置mapred-site.xml配置文件
因为mapred-site.xml原本不存在,存在一个mapred-site.xml.template模板,直接重命名
或者是复制一个重命名都行,建议复制一个重命名
rename mapred-site.xml.template mapred-site.xml #默认mapred-site.xml vi mapred-site.xml #添加如下内容
#添加如下内容
mapreduce.framework.name
yarn
设置yarn-site.xml配置文件
vi yarn-site.xml #添加如下内容
#添加如下内容
yarn.resourcemanager.hostname
mini1 可以是ip
yarn.nodemanager.aux-services
mapreduce_shuffle
设置slaves配置文件
vi slaves #修改后显示如下内容
将localhost删了,加mini1也行,不加也行,加了本机当做一台datanode来用,建议不要加
添加如下
mini2
mini3
配置Centos6.7_mini1到Centos6.7_mini2、Centos6.7_mini3的免密登陆:因为之前有可能配置的是root用户的免密登录,但是在这使用的是hadoop用户,所以要对hadoop用户配置免密登录,前面有,不说了
将develop_env目录下的所有文件分别拷贝到Centos6.7_min2、Centos6.7_min3
cd ~/develop_env #切换到/home/hadoop/develop_env目录下
scp -r /home/hadoop/develop_env/hadoop-2.7.1 min2:/home/hadoop/
scp -r /home/hadoop/develop_env/hadoop-2.7.1 min3:/home/hadoop
也可以自己去配置,就当是练习一下,所有的东西按照mini1来配置就行,不用修改mini1配置的所有东西
20. 分别在三台机器上将hadoop添加到环境变量
(1)vim /etc/proflie
(2)source /etc/profile
(3)分别重启三台机器
启动集群
格式化HDFS 因为HDFS也是文件系统,第一次使用一个文件系统都要格式化
以后尽量少使用格式化,每次格式化都会对data文件进行操作,有可能导致错误
hadoop namenode -format #在min1机器上执行格式化命令
启动hdfs集群(注意启动集群时,最好将集群中所有机器的时间设置一致)
start-dfs.sh #在min1机器上执行启动hdfs集群命令
#注意启动集群时,最好将集群中所有机器的时间设置一致 用到时间同步,之前也有
在min1启动namenode成功显示:
[hadoop@mini1 root]$ jps
2251 NameNode
2573 Jps
2447 SecondaryNameNode
在min2和min3启动datanode成功显示:
[hadoop@mini2 root]$ jps
1746 Jps
1672 DataNode
启动yarn集群
start-yarn.sh #在min1机器上执行启动yarn集群命令
在min1启动resourcemanager成功显示:
[hadoop@mini1 root]$ jps
2626 ResourceManager
2902 Jps
2251 NameNode
2447 SecondaryNameNode
在min2和min3启动nodemanager成功显示:
[hadoop@mini2 root]$ jps
1672 DataNode
1800 NodeManager
1929 Jps
使用web查看集群的状态
使用浏览器打开 //192.168.246.193:50070
使用浏览器打开 //192.168.246.193:8088
本文由职坐标整理并发布,希望对同学们有所帮助。了解更多详情请关注职坐标大数据云计算大数据安全频道!
您输入的评论内容中包含违禁敏感词
我知道了
请输入正确的手机号码
请输入正确的验证码
您今天的短信下发次数太多了,明天再试试吧!
我们会在第一时间安排职业规划师联系您!
您也可以联系我们的职业规划师咨询:
版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
沪公网安备 31011502005948号