摘要:本文主要向大家介【云计算】Spark集群安装搭建绍了,通过具体的内容向大家展现,希望对大家学习云计算有所帮助。
本文主要向大家介【云计算】Spark集群安装搭建绍了,通过具体的内容向大家展现,希望对大家学习云计算有所帮助。
1.下载Spark
Spark是一个独立的内存计算框架,如果不考虑存储的话,可以完全独立运行,因此这里就只安装Spark集群
Spark下载地址: //spark.apache.org/downloads.html
选择好Spark和Hadoop的版本之后就可以下载了,从2.0版本开始,Spark默认使用Scala2.11
2.上传解压
将Spark的压缩包上传到集群的某一台机器上,然后解压缩
3.进行Spark的配置文件的配置
进入到Spark的目录下
cd conf
mv spark-env.sh.template spark-env.sh
vi spark-env.sh
在该配置文件中添加如下配置
export JAVA_HOME=你的jdk所在目录
配置slaves文件
mv slaves.template slaves
vi slaves
在slaves中添加你的Spark集群子节点机器的主机名或者ip
4.将配置好的Spark传输到集群的其他机器上
使用scp命令,如果集群机器特别多的话,可以使用shell编程来循环自动传输,这里不在详细说明
5.启动Spark
进入到Spark的主目录下
sbin/start-all.sh
使用jps命令可以看出,该Spark集群有一个Master,三个Work
Spark集群的WEBUI界面: Master所在的主机ip:8080
本文由职坐标整理并发布,希望对同学们有所帮助。了解更多详情请关注职坐标大数据云计算大数据安全频道!
您输入的评论内容中包含违禁敏感词
我知道了
请输入正确的手机号码
请输入正确的验证码
您今天的短信下发次数太多了,明天再试试吧!
我们会在第一时间安排职业规划师联系您!
您也可以联系我们的职业规划师咨询:
版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
沪公网安备 31011502005948号