hdfs的使用:

1)、----使用hdfs命令,切换hdfs用户
hdfs dfs -du -h /zxvmax/telecom/union/dm/dm_mdn_imsi_terni //查看分区大小
hdfs dfs -cp /zxvmax/telecom/union/dm/dm_mdn_imsi_ternimal/p_provincecode=510000/p_date=2017-03-10/* /zxvmax/telecom/union/dm/dm_mdn_imsi_ternimal/p_provincecode=510000/p_date=2017-03-20/ *//将数据从2017-03-10到2017-03-20
hdfs dfs -rm -r
hdfs dfs -mkdir -p //目录
hdfs dfs -mkdir
hdfs dfs -mv
2)、--put--从本地导入数据到spark表(hdfs文件系统)
在本地处理好文件,比如:处理成csv文件,把tab键,转换成 ,保存文件成.csv
上传文件到:/home/sswk_data_sever/dataHome/data/123
su hdfs -----切换用户
hdfs dfs -mkdir /zxvmax/telecom/cfg/cfg_subway_station ----新建hdfs目录
hdfs dfs -put point.csv /zxvmax/telecom/cfg/cfg_subway_station ------新建当前hdfs文件夹
hdfs dfs -du -h /zxvmax/telecom/cfg/cfg_subway_station/point.csv -----查看hdfs数据是否导入
select * from cfg_subway_station limit 10; //最后再查看数据在spark上是否有
3)、--get--把hdfs上面的数据拿到集群本地目录
方法一:hdfs dfs -getmerge /zxvmax/telecom/lte/dm/dm_plan_point_stat_d/p_provincecode=510000/p_date=2017-10-19/ dm_plan_point_stat_d.csv
方法二:hdfs dfs -get /zxvmax/telecom/lte/dm/dm_plan_grid_agps_d/p_provincecode=510000/p_date=2020-01-01/
cat * >a.csv
4)、----拷贝数据:从环境234到154的hdfs的数据拷贝
hdfs dfs -cp /zxvmax/telecom/cfg/cfg_sector_c/p_provincecode=510000/p_date=2017-11-29/* hdfs://133.37.31.154:9000/zxvmax/telecom/cfg/cfg_sector_c/p_provincecode=510000/p_date=2017-11-29/ */

5)、----查看hdfs的服务的状态(主备节点的状态是随机动态切换的)
hdfs haadmin -getServiceState nn1
hdfs haadmin -getServiceState nn2

转载于:https://www.cnblogs.com/hymmiaomiao/p/8692174.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值