【云计算】HDFS的shell常用命令大全罗列总结
小标 2019-02-25 来源 : 阅读 1363 评论 0

摘要:本文主要向大家介绍了【云计算】HDFS的shell常用命令大全罗列总结,通过具体的内容向大家展现,希望对大家学习云计算有所帮助。

本文主要向大家介绍了【云计算】HDFS的shell常用命令大全罗列总结,通过具体的内容向大家展现,希望对大家学习云计算有所帮助。

【云计算】HDFS的shell常用命令大全罗列总结

1.启动相关


启动zookeeper:


zkServer.sh start


启动HDFS : 不管在集群中的那个节点都可以


start-dfs.sh


启动YARN : 只能在YARN主节点中进行启动


start-yarn.sh


HDFS : //hadoop02:50070


YARN : //hadoop05:8088


2.-ls: 显示目录信息


hadoop fs -ls /


hadoop fs -ls -R / ---->级联递归的方式展示,相当于展示下面的所有文件夹


3.-mkdir:在hdfs上创建目录(-p级联创建)


hadoop fs -mkdir -p /aaa/bbb/cc/dd


4.-moveFromLocal从本地剪切粘贴到hdfs


hadoop fs - moveFromLocal /home/hadoop/a.txt /aaa/bbb/cc/dd


5.-moveToLocal:从hdfs剪切粘贴到本地(尚未实现,有点问题)


hadoop fs -help moveToLocal


6.–appendToFile :追加一个文件到已经存在的文件末尾


hadoop fs -appendToFile ./hello.txt /hello.txt


7.-cat :显示文件内容


hadoop fs -cat/hadoop/yarn-root-nodemanager-Hadoop1.log


8.-tail:显示一个文件的末尾


hadoop fs -tail /weblog/access_log.1


9.-chgrp 、-chmod、-chown:linux文件系统中的用法一样,修改文件所属权限


hadoop fs -chmod 666 /hello.txt


hadoop fs -chown someuser:somegrp /hello.txt


10.-copyFromLocal:从本地文件系统中拷贝文件到hdfs路径去


hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/


11.-copyToLocal:从hdfs拷贝到本地


hadoop fs -copyToLocal /user/hello.txt ./hello.txt


12.-cp :从hdfs的一个路径拷贝到hdfs的另一个路径


hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2


13.-mv:在hdfs目录中移动文件


hadoop fs -mv /aaa/jdk.tar.gz /


14.-get:等同于copyToLocal,就是从hdfs下载文件到本地


hadoop fs -get /user/hello.txt ./


15.-getmerge :合并下载多个文件,比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,…


hadoop fs -getmerge /aaa/log.* ./log.sum


16.-put:等同于copyFromLocal


hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk.tar.gz


17.-rm:删除文件或文件夹下的所有东西


hadoop fs -rm -r /aaa/bbb/


hadoop fs -rmr /aa ----->这种方式已经被弃用了,但是还是可以有删除效果的。建议用上面的。


18.-rmdir:删除空目录


hadoop fs -rmdir /aaa/bbb/ccc


19.-df :统计文件系统的可用空间信息


hadoop fs -df -h /


20.-du统计文件夹的大小信息


hadoop fs -du -s -h /user/abcd/wcinput


21.-count:统计一个指定目录下的文件节点数量


hadoop fs -count /aaa/


22.-setrep:设置hdfs中文件的副本数量


hadoop fs -setrep 3 /aaa/jdk.tar.gz


这里设置的副本数只是记录在namenode的元数据中,是否真的会有这么多副本,还得看datanode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10。


23.-touchz创建空白文件


hadoop fs -touchz /hadoop/touchzFile.txt


24.帮助命令


hadoop


hadoop fs


hadoop -help


hadoop fs -help


hadoop fs -help ls


25.hadoop fs 等价于 hdfs dfs


在以前版本中整个集群的所有命令都是通过hadoop命令来敲的,2.0之后区分出来了。


26.修改当前目录下的所有文件的副本个数修改,将来上传的文件的副本个数不会受到影响


hadoop fs -setrep 3 /


27.查看配置信息的参数


hdfs getconf 执行后会告诉你一个参数


hdfs getconf -confkey fs.defaultFS 执行后会告诉你hdfs://hadoop02:9000


hdfs getconf -confkey dfs.blocksize执行后会告诉你134217728


hdfs getconf -confkey dfs.replication执行后会告诉你2


          

本文由职坐标整理并发布,希望对同学们有所帮助。了解更多详情请关注职坐标大数据云计算大数据安全频道!

本文由 @小标 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式AI+学习就业服务平台 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved