1.启动hdfs
我们需要确认的是正确启动hdfs:在我们的安装hadoop相关的/sbin目录下执行脚本文件start-hdfs.sh;或者start-all.sh,这个会同时启动我们hadoop中配置的yarn)
2. 常用命令
首先确定namenode正确启动,否则会操作失败,其次在hdfs上进行相关的操作,要加上前缀 hadoop fs 或者 hdfs dfs
常用命令的分类
- 本地 —> hdfs
put :上传本地文件到hfds
copyFormLocal:和put作用相同
moveFromLocal:移动本地文件到hdfs
appendToFile:追加本地文件到hdfs
eg:hadoop fs -put file /test/
上面的栗子表示将本地的file文件上传到hdfs上的根目录下的test文件夹下 - hdfs —>hdfs(和Linux这种命令类似)
cp :复制
mv:移动
chown:改变所有者
chgrp:改变所有组
mkdir:创建文件夹
du:查看文件夹和文件的磁盘占用情况
df:获取硬盘被占用了多少空间,剩多少空间
cat:查看文件内容
eg:hadoop fs -cat /test/file
上面的栗子表示查看hdfs上test文件夹下file中的内容 - hdfs —>本地
get:下载文件到本地
getmerge:
copyToLocal:和get作用相同
eg:hadoop fs -get /test/file file1
上面的栗子表示将hdfs上的根目录下的test文件夹下的file问价下载到当前所在目录并且命名为fille
3.注意
这些操作很常用,要熟练掌握哦0^0