大数据操作日志:常用命令

1. hls 列出目录所有内容:

2. 列出内容并排序, hls -r -t


3. hcat 查看文件内容

4. 上传文件:(把test.file上传到大数据目录下)

hadoop fs -put /home/xxxx/yong/test.file hdfs://xxx.xxx.xxx.xxx:8082/testdir/xxxx_file/xxxaccount

5. 获取文件:(把大数据目录下的文件test2.file下载到指定服务器目录下。)
hadoop fs -get home/xxxx/yong/ hdfs://xxx.xxx.xxx.xxx:8082/testdir/xx_file/test2.file

6. 删除文件:
hrm -skipTrash hdfs://192.168.xxx.xxx:8082/testdir/xx_file/xxx/xxx_xxx_20180110

hrm -r hdfs://192.168.xxx.xxx:8082/testdir/xx_file/xxx/xxx_xxx_20180110

7. 进入到spark
命令: spark-shell
ctrl+R 进行查找。
查询SQL语句:
val t = sqlContext.sql("select count(*) from parquet.`hdfs://192.168.XXX.XXX:8082/testdir/stats/data/Flow.parquet`")
t.show





  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值